Sunteți pe pagina 1din 81

UNIVERSIDAD POLIT

ECNICA DE VALENCIA
DEPARTAMENTO DE SISTEMAS INFORM

ATICOS Y COMPUTACI

ON
Aut omatas nitos:
Irreducibilidad e Inferencia
Tesis Doctoral presentada por Manuel V azquez de Parga Andrade
Dirigida por Pedro Garca G omez
Valencia, Abril 2008
1
A Mendri
2
3

Indice
1. Introducci on. 6
2. Lenguajes y Aut omatas nitos. 8
2.1. Alfabetos, palabras y lenguajes. . . . . . . . . . . . . . . . . . . . 8
2.2. Aut omatas nitos. . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3. Aut omatas nitos deterministas. . . . . . . . . . . . . . . . . . . 11
2.4. Otros tipos de aut omatas nitos. . . . . . . . . . . . . . . . . . . 13
2.4.1. Aut omatas nitos con transiciones vacas. . . . . . . . . . 13
2.4.2. RFSA (Residual Finite State Automaton). . . . . . . . . 13
2.4.3. Aut omatas maximales asociados a lenguajes nitos. . . . 14
2.5. Operaciones sobre aut omatas nitos. . . . . . . . . . . . . . . . . 16
2.5.1. Cocientes. . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5.2. Reverso. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5.3. Subaut omatas. . . . . . . . . . . . . . . . . . . . . . . . . 17
2.5.4. Homomorsmos. . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.5. Uni on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5.6. Determinizaci on. . . . . . . . . . . . . . . . . . . . . . . . 19
2.5.7. Minimizaci on. . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6. Aut omata Universal. . . . . . . . . . . . . . . . . . . . . . . . . . 19
3. Inferencia gramatical de lenguajes regulares. 22
3.1. Inferencia gramatical. . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2. Inferencia gramatical de lenguajes regulares. . . . . . . . . . . . . 24
3.2.1. Conceptos b asicos. . . . . . . . . . . . . . . . . . . . . . . 24
3.2.2. El algoritmo Trakhtenbrot-Barzdin-Gold. . . . . . . . . . 25
3.2.3. El algoritmo RPNI. . . . . . . . . . . . . . . . . . . . . . 26
3.2.4. Inferencia no determinista. . . . . . . . . . . . . . . . . . 28
4. Minimalizaci on de Aut omatas Finitos. 32
4.1. Introducci on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2. Minimalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.2.1. Aut omatas nitos minimales. . . . . . . . . . . . . . . . . 32
4.2.2. Minimalidad relativa. . . . . . . . . . . . . . . . . . . . . 34
4.3. Irreducibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3.1. Aut omatas nitos irreducibles. . . . . . . . . . . . . . . . 35
4.3.2. Estados fusionables. . . . . . . . . . . . . . . . . . . . . . 36
4.3.3. Estados fusionables y el aut omata universal. . . . . . . . . 38
4.3.4. Irreducibilidad relativa. . . . . . . . . . . . . . . . . . . . 41
4.4. Concisi on. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.4.1. Aut omatas nitos concisos. . . . . . . . . . . . . . . . . . 44
4.4.2. Estados superuos. . . . . . . . . . . . . . . . . . . . . . . 45
4.4.3. Aut omatas nitos concisos irreducibles. . . . . . . . . . . 46
4.4.4. Concisi on relativa. . . . . . . . . . . . . . . . . . . . . . . 47
4
4.4.5. Irreducibilidad y concisi on relativas. . . . . . . . . . . . . 48
5. Redes de aut omatas cocientes. 52
5.1. Red de cocientes de un aut omata nito. . . . . . . . . . . . . . . 52
5.2. Completitud y universalidad estructural. . . . . . . . . . . . . . . 53
5.2.1. Aplicaciones a la inferencia de L
3
. . . . . . . . . . . . . . 58
5.3. Semired de cocientes asociada a un par de aut omatas nitos. . . 59
5.3.1. Aplicaciones a la inferencia de L
3
. . . . . . . . . . . . . . 63
6. Inferencia mediante subaut omatas asociados a palabras. 66
6.1. Subaut omatas asociados a una palabra en un lenguaje. . . . . . . 66
6.2. Una familia de algoritmos para la inferencia de L
3
mediante
aut omatas nitos. . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.2.1. La familia WASRI. . . . . . . . . . . . . . . . . . . . . . . 68
6.2.2. WASRI1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.3. Dos ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
6.3.1. Ejemplo de ejecuci on. . . . . . . . . . . . . . . . . . . . . 70
6.3.2. Un ejemplo bonito. . . . . . . . . . . . . . . . . . . . . . . 71
7. Experimentaci on. 73
7.1. Las muestras. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7.2. WASRI2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.3. LPEF. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.4. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
8. Conclusi on. 76
5
1. Introducci on.
Los lenguajes regulares se encuentran entre los objetos m as b asicos de la
teora de lenguajes y entre los m as estudiados. Una de las razones para que esto
sea as es la gran variedad y riqueza formal de sus representaciones: gram aticas
de tipo tres, expresiones regulares, aut omatas nitos deterministas y no deter-
ministas, etc. Estas representaciones juegan adem as un importante papel en
m ultiples aplicaciones inform aticas en los ambitos del reconocimiento de for-
mas, aprendizaje articial, vericaci on de programas, especicaci on sint actica,
sistemas de manipulaci on de textos, lenguajes de programaci on (awk, perl, php),
editores, etc. Evidentemente, el tama no de la representaci on interviene crucial-
mente en el tiempo de ejecuci on de los algortmos en que se aplica.
El sistema mas extendido de representaci on de lenguajes regulares es el dis-
positivo abstracto denominado aut omata nito determinista. Estos aut omatas,
adem as de poseer gran riqueza formal, ostentan una serie de propiedades que
facilitan en diferentes maneras su manejo. Una de estas propiedades, quiz as la
mas importante, es que para cada lenguaje regular existe un aut omata nito de-
terminista can onico, mnimo en cuanto a tama no y el unico con esta propiedad
y que adem as puede ser calculado en tiempo polin omico a partir de cualquier
otro aut omata nito determinista equivalente.
Sin embargo, cuando el tama no de la representaci on es muy relevante puede
ocurrir que los aut omatas nitos deterministas no sean la representaci on mas
adecuada, pues el tama no del aut omata nito determinista mnimo puede ser
exponencialmente grande respecto al de otras representaciones equivalentes, en
particular al de alg un otro automata nito (no determinista) para el mismo
lenguaje.
Los aut omatas nitos (no deterministas) presentan sin embargo el inconve-
niente de que muchos de los problemas relacionados con ellos no admiten una
soluci on eciente. En particular, para cada lenguaje regular existen en general
varios aut omatas nitos de tama no minimal y el problema de encontrar alguno
de estos equivalente a otro aut omata nito dado es PSPACE completo. As,
siendo inabordable el problema de la minimalizaci on, diferentes autores han
acometido un problema similar aunque mas modesto en sus objetivos, el pro-
blema de la reducci on, consistente en encontrar un aut omata mas peque no que
el de entrada y equivalente a el.
Otro problema relevante de caractersticas similares al anterior es el de la
inferencia de lenguajes regulares, que persigue encontrar un aut omata nito lo
mas peque no posible consistente con una serie de datos de entrada. Tampoco este
problema admite soluci on general polin omica, ni a un en el caso de los aut omatas
nitos deterministas, aunque existen diferentes algoritmos polin omicos que lo
resuelven cuando se dan determinadas circunstancias y que en muchos casos
son capaces de encontrar soluciones razonables.
En este trabajo abordamos estos dos problemas, el de la reducci on de aut
omatas nitos y el de la inferencia de los lenguajes regulares, y estudiamos las
relaciones entre ellos.
Tras esta introducci on, en el segundo captulo se repasan los conceptos y
6
proposiciones b asicos de teora de lenguajes y se establece la notaci on utilizada
a lo largo del trabajo. Lo mismo, pero en lo que concierne a la inferencia grama-
tical, se realiza en el tercer captulo, donde se describe adem as el actual estado
del arte. En el cuarto captulo se discuten los problemas de minimalizaci on
y reducci on de aut omatas nitos y se demuestra el primero de los resultados
centrales de esta tesis, la existencia de una cota en el tama no de los aut omatas
nitos irreducibles que aceptan un determinado lenguaje regular. Se introducen
adem as los conceptos de irreducibilidad y concisi on relativas. En el captulo
quinto se discuten y amplan los conceptos de red de aut omatas cocientes y
completitud estructural y se introduce el concepto de universalidad estructural.
Como resultado de este estudio se obtiene el segundo de los resultados centrales
de este trabajo, el cual establece que cualquier algoritmo de fusi on de estados
que obtenga como resultado un aut omata nito irreducible compatible con los
datos de entrada inere en el lmite la clase de los lenguajes regulares siempre y
cuando se aplique en cierta manera, por lo dem as poco restrictiva. En el captulo
sexto se introduce el concepto de subaut omata asociado a una palabra en un
lenguaje y a partir de el se describe una nueva familia de algoritmos de infe-
rencia de la clase de los lenguajes regulares representados mediante aut omatas
nitos, algoritmos que tienen la particularidad de que su complejidad temporal
es funci on b asicamente de la longitud de las palabras de la muestra de entrada,
mientras que son pr acticamente lineales respecto al n umero de las mismas. En el
captulo septimo se describen algunos algortmos de las familias mencionadas y
mediante la experimentaci on se compara con exito su rendimiento con el de los
algortmos de inferencia hoy por hoy mas relevantes. Por ultimo, en el captulo
octavo se enumeran las conclusiones de este trabajo y se exponen diferentes vas
para la futura ampliaci on del mismo.
7
2. Lenguajes y Aut omatas nitos.
2.1. Alfabetos, palabras y lenguajes.
En este apartado repasaremos brevemente los conceptos m as b asicos de la
teora de lenguajes con el objetivo principal de establecer la notaci on b asica que
utilizaremos a lo largo de este trabajo. Los lectores interesados podr an encontrar
estos conceptos desarrollados con mas amplitud en cualquiera de los manuales
cl asicos sobre introducci on a la teora de lenguajes como [17], [19] o [35].
Un alfabeto es cualquier conjunto nito y no vaco de smbolos.
Una palabra (sobre ) x es cualquier secuencia nita de smbolos de .
Denominaremos [x[ a la longitud de la palabra x, esto es, al n umero de smbolos
que la componen. As mismo denotaremos por [x[
a
al n umero de veces que el
smbolo a aparece en la palabra x. Representaremos mediante a la palabra
vaca, aquella formada por cero smbolos.
Llamaremos

al conjunto formado por todas las palabras sobre .

constituye un monoide libre junto con la operaci on de concatenaci on de pa-


labras, asociativa, con elemento neutro . Supuesto un orden alfabetico sobre
los smbolos de , consideraremos un orden can onico sobre las palabras de

en el que las palabras se ordenan de menor a mayor longitud y alfabeticamente


dentro de una misma longitud. Representaremos por
n
al conjunto formado
por todas las palabras de longitud n.
Utilizaremos la notaci on exponencial para representar concatenaciones de
una palabra consigo misma, de manera que para cualquier palabra x, x
0
= , y
para n > 0, x
n
= xx
n1
.
El reverso de x, x
R
, es la imagen especular de x. Formalmente
R
= ,
(xa)
R
= ax
R
para cualesquiera a , x

.
Denotaremos por Pref(x), Suf(x), Seg(x), SubW(x) respectivamente a los
conjuntos formados por los prejos, sujos, segmentos y subpalabras de x. Tanto
como x pertenecen a cualquiera de estos conjuntos.
Un lenguaje (sobre ) L es cualquier subconjunto de

, esto es, cualquier


conjunto de palabras sobre . Representaremos por al lenguaje vaco. Un
lenguaje es nito si contiene un n umero nito de palabras e innito en caso
contrario. Representaremos mediante [L[ el n umero de palabras del lenguaje L
y mediante |L| a la suma de las longitudes de las palabras de L.
Algunas de las operaciones mas usuales sobre lengujes son:
Las operaciones booleanas de uni on, , intersecci on, , complementaci on,
y diferencia, , denidas igual que para los conjuntos en general.
La concatenaci on de dos lenguajes L
1
y L
2
es L
1
L
2
= xy : x L
1
, y L
2
.
Esta operaci on es asociativa y tiene como elemento neutro el lenguaje .
Utilizaremos tambien para ella la notaci on exponencial, de forma que L
0
=
y para n > 0, L
n
= LL
n1
.
La clausura de un lenguaje es L

=
n0
L
n
, esto es, el submonoide de

generado por L. La clausura positiva es L


+
=
n1
L
n
.
El reverso de L es L
R
=
_
x
R
: x L
_
.
8
Pref(L) =
xL
Pref(x). En forma similar se denen Suf(L), Seg(L) y
SubW(L).
Dados un lenguaje L y una palabra x denominaremos derivada de L respecto
a x al conjunto x
1
L= y

: xy L. Adem as denotaremos por Lx


1
al
lenguaje y

: yx L .
Siendo
1
y
2
alfabetos un homomorsmo de
1
sobre
2
es cualquier
funci on h :
1

2
. Esta operaci on se extiende a palabras de forma que para
cualquier homomorsmo h, h() = y h(ax) = h(a)h(x) para cada smbolo a y
cada palabra x. Se extiende asimismo a lenguajes siendo h(L) = h(x) : x L.
Si h es un homomorsmo de
1
sobre
2
y L es un lenguaje sobre
2
entonces
h
1
(L) = x

1
: h(x) L. El operador h
1
se denomina homomorsmo
inverso.
De los diferentes sistemas de representaci on de lenguajes utilizaremos con
cierta frecuencia las expresiones regulares, denidas en la siguiente manera: ,
y a, para cada a , son expresiones regulares que denotan respectivamente
a los lenguajes , y a . Si r
1
y r
2
son expresiones regulares que repre-
sentan respectivamente a los lenguajes L
1
y L
2
entonces r
1
+ r
2
, r
1
r
2
y r

1
son
expresiones regulares que representan respectivamente a los lenguajes L
1
L
2
,
L
1
L
2
y L

1
. La prioridad de estos operadores es, de menor a mayor, +, ,

,
donde denota la concatenaci on. Esta prioridad puede alterarse en la forma
habitual mediante el uso de parentesis. S olo las expresiones as construidas son
expresiones regulares, si bien, por concisi on, en algunos casos las utilizaremos
combinadas con otros operadores como la notaci on exponencial y la clausura
positiva.
Dado un alfabeto llamaremos clase de lenguajes a cualquier conjunto de
lenguajes sobre . La clase de los lenguajes que pueden ser representados me-
diante expresiones regulares se llama clase de los lenguajes regulares o L
3
y es
la misma que la formada por los lenguajes que pueden ser representados me-
diante aut omatas nitos. L
3
es cerrada bajo cada una de las operaciones sobre
lenguajes anteriormente descritas.
2.2. Aut omatas nitos.
Rabin y Scott [31] introdujeron el concepto de aut omata nito no deter-
minista. Nosotros utilizaremos una ligera generalizaci on del mismo a la que
denominaremos aut omata nito.
Intuitivamente, un aut omata nito es un dispositivo abstracto que, partien-
do de una conguraci on inicial, procesa secuencias de smbolos mediante una
unidad de control que admite un n umero nito de estados diferentes. Cada vez
que se procesa un smbolo la unidad de control cambia de estado.
Los aut omatas nitos conguran una de las clases de sistemas mas funda-
mentales en la teora de lenguajes, tanto por la riqueza de su estructura como
por la diversidad e importancia de sus aplicaciones pr acticas.
Las deniciones y proposiciones de este apartado pueden encontrarse en
cualquier manual de teora de lenguajes, tales como el de Hopcroft y Ullman
9
[19], el de Harrison [17], etc.
Denici on 1 Un aut omata nito es cualquier quntupla A =Q, , , I, F),
donde Q es un conjunto nito de estados, es un alfabeto, I es un subcon-
junto no vaco de Q a cuyos elementos llamamos estados iniciales, F es un
subconjunto de Q a cuyos elementos llamamos estados nales y, por ultimo, ,
a la que se llama funci on de transici on, es una funci on : (Q ) 2
Q
o,
equivalentemente, un subconjunto de Q Q.
Cada elemento q
1
, a, q
2
) de QQ tal que q
2
(q
1
, a) es una transici on
de .
La funci on se extiende en forma natural a conjuntos de estados, de manera
que para cualquier subconjunto P de Q y cualquier smbolo a de , (P, a) =

qP
(q, a).
Asimismo se extiende a palabras, siendo para todo P Q, (P, ) = P y
para todo a , x

, (P, ax) = ((P, a), x).


Una palabra x sobre es aceptada o reconocida por el aut omata nito
A = Q, , , I, F) si (I, x) F ,= .
Llamaremos camino en A para la palabra x = a
1
a
2
...a
n1
a cualquier se-
cuencia nita q
1
, a
1
, q
2
) q
2
, a
2
, q
3
) q
3
, a
3
, q
4
) ... q
n1
, a
n1
, q
n
) tal que q
i+1

(q
i
, a
i
) para cada i, 1 i < n. Si adem as q
1
I y q
n
F diremos que ese
camino es una aceptaci on de x.
Denici on 2 El lenguaje aceptado o reconocido por A, L(A), es el formado por
todas aquellas palabras que son aceptadas por A. Un lenguaje es regular si es
aceptado por alg un aut omata nito. La clase de los lenguajes regulares se denota
L
3
.
Dos aut omatas nitos son equivalentes si ambos aceptan el mismo lenguaje.
Denici on 3 En un aut omata nito A = Q, , , I, F) el lenguaje por la
izquierda de un estado q es L
q
= x

: q (I, x), su lenguaje por


la derecha es R
q
= x

: (q, x) F ,= y su lenguaje interior es


I
q
= x

: q (q, x). Denotaremos I


pq
al lenguaje x

: q (p, x) .
Proposici on 4 Para cualquier aut omata nito A = Q, , , I, F), L(A) =

qI
I
q
R
q
=
qI
R
q
=
qQ
L
q
I
q
R
q
=
qQ
L
q
R
q
=
qF
L
q
I
q
=
qF
L
q
.
Demostraci on. Trivial.
Un estado q de un aut omata nito A = Q, , , I, F) es inalcanzable si no existe
x

tal que q (I, x) o, equivalentemente si L


q
= . Es un sumidero si
x(q, x) F = o, lo que es lo mismo, si R
q
= . Un estado es in util si es
inalcanzable o es un sumidero y, por tanto, si L
q
R
q
= . Un aut omata es aseado
si no contiene estados in utiles. El aut omata A

= Q

, ,

, I

, F

) donde Q

se obtiene de eliminar los estados in utiles de Q, I

= I Q

, F

= F Q

= (Q

) es aseado y equivalente a A. Generalmente, si no se indica


10
lo contrario, supondremos que los aut omatas nitos con los que trabajamos son
aseados.
Un estado q es superuo si el aut omata resultante de eliminarlo junto con
todas las transiciones en las que interviene es equivalente al aut omata original.
Todos los estados in utiles son superuos pero lo contrario no es cierto en general.
Diremos que un aut omata es conciso si no contiene estados superuos.
Un aut omata nito es minimal si no existe otro equivalente a el con menos
estados. En general cada lenguaje regular es aceptado por mas de un aut omata
nito minimal.
Usualmente describiremos un aut omata nito A = Q, , , I, F) mediante
su diagrama de transiciones, que consiste en un grafo dirigido con tantos nodos
como estados tiene Q, un nodo asociado a cada estado. Los estados iniciales se
distinguen mediante una echa, los nales se distinguen en negrita y por ultimo,
el grafo contendr a un arco del nodo asociado a q
1
al asociado a q
2
etiquetado a
si y s olo si q
1
, a, q
2
) . Vease un ejemplo en la gura 1.
1
2
3
4
5
6 1
2
3
4
(A) (B)
0
1
0,1
0
1
1
1
0
0
1
0
1
0
0
1
0,1
0
1
1
1
0
Figura 1: (A) Diagrama de transiciones del aut omata nito
A = Q, , , I, F, donde Q = {1, 2, 3, 4, 5, 6}, = {0, 1}, =
{1, 0, 2, 1, 1, 3, 2, 0, 2, 2, 1, 2, 2, 0, 4, 3, 1, 1, 3, 1, 2, 3, 1, 3, 3, 0, 5, 4, 0, 2,
4, 1, 5, 5, 0, 5, 6, 1, 4, 6, 0, 5}, I = {1, 4} y F = {2}. Acepta el lenguaje
(0 + 11)(0 + 1)

. (B) Dado que el estado 5 es un sumidero y el 6 es inalcanzable, este


aut omata es equivalente al anterior.
Desde el punto de vista de los diagramas de transici on una palabra x es
aceptada por el aut omata si existe un camino etiquetado con los smbolos de x
que conduce desde alg un estado inicial hasta alguno nal.
2.3. Aut omatas nitos deterministas.
Denici on 5 Un aut omata nito A = Q, , , I, F) es determinista si [I[ = 1
y para todo estado q y todo smbolo a, [ (q, a)[ 1.
11
Usualmente, si I = q
0
, A se representa en la forma Q, , , q
0
, F), donde
es una funci on parcial : (Q) Q.
Si es una funci on total diremos que A es un aut omata nito determin-
ista completamente especicado o completo. A partir de cada aut omata nito
determinista no completo A = Q, , , q
0
, F) puede obtenerse uno completo
equivalente A

= Q q
s
, ,

, q
0
, F) sin mas que a nadir un nuevo estado q
s
de forma que para todo q Q q
s
y para todo a tales que (q, a) no
est a denida,

(q, a) = q
s
, siendo en los dem as casos

(q, a) = (q, a). En


general consideraremos que A y A

son el mismo aut omata.


Proposici on 6 Todo lenguaje regular es aceptado por alg un aut omata nito
determinista.
Demostraci on. Sea A = Q, , , I, F) un aut omata nito. El aut omata nito
determinista A

=

2
Q
, , , I, 2
Q
2
QF
_
, donde ahora se interpreta como
una funci on de 2
Q
2
Q
, es equivalente a A.
Los aut omatas de la gura 1 no son deterministas. En la gura 2(A) se
muestra otro equivalente a ellos que s lo es.
1
2
3 4
(A) (B)
0
1
1
0
1
1
0
0
1
0
1
0,1
1
0
0,1
Figura 2: (A) Aut omata nito determinista para el lenguaje (0 + 11)(0 + 1)

. No es
completo. (B) Aut omata nito determinista mnimo completo equivalente al anterior.
Los estados se corresponden con los siguientes valores de derivadas: 1 :=
1
L = L,
2 := 0
1
L = (0 + 1)

, 3 := 1
1
L = 1(0 + 1)

, 4 := 10
1
L = . Este ultimo estado es
in util, por lo que puede ser suprimido.
Proposici on 7 Para cada lenguaje L

sea D =
_
x
1
L : x

_
. L
L
3
[D[ < .
Demostraci on. Por una parte, el aut omata D =
_
D, , , L, D2

+
_
donde
(x
1
L, a) = (xa)
1
L acepta el lenguaje L, y si [D[ < , D es un aut omata
nito determinista.
Por otra parte, sea A = Q, , , q
0
, F) un aut omata nito determinista
completo tal que L(A) = L. Puesto que (q
0
, x) = (q
0
, y) = q x
1
L =
y
1
L = R
q
tenemos que [Q[ [D[ y por tanto [D[ < .
12
Corolario 8 Para cada lenguaje regular el aut omata nito determinista D es
mnimo respecto al n umero de estados, el unico excepto isomorsmos.
En la gura 2(B) se muestra el mnimo equivalente al de la gura 2(A).
Sin embargo D, considerado como aut omata nito, no ser a en general un
minimal.
La proposici on anterior fue establecida por Myhill y Nerode y
L
, la con-
gruencia por la derecha sobre

tal que x
L
y x
1
L = y
1
L, es conocida
como la congruencia de Nerode. Evidentemente el ndice de esta congruencia es
igual al n umero de estados del aut omata nito determinista mnimo para L.
2.4. Otros tipos de aut omatas nitos.
2.4.1. Aut omatas nitos con transiciones vacas.
El concepto de aut omata nito con transiciones vacas es una generalizaci on
del de aut omata nito. Dado que para cada aut omata de este tipo existe un
aut omata nito equivalente con el mismo n umero de estados, los aut omatas
nitos con transiciones vacas apenas incrementan la capacidad representativa
de los aut omatas nitos. Su principal utilidad reside en contribuir a simplicar
algunas demostraciones, pero incluso esta utilidad ha disminuido debido a la
utilizaci on de aut omatas nitos con varios estados iniciales.
A lo largo de este trabajo apenas ser an utilizados, por lo que nos limitaremos
a dar una breve descripci on de los mismos.
Denici on 9 Se denomina aut omata nito con transiciones vacas a cualquier
quntupla A = Q, , , I, F), donde Q, , I y F signican lo mismo que en
el caso de los aut omatas nitos, mientras que es en este caso una funci on
: (Q( )) 2
Q
.
Los aut omatas nitos con transiciones vacas se representan mediante dia-
gramas de transiciones construidos de la misma manera que los asociados a
aut omatas nitos. A los arcos etiquetados se les denomina transiciones vacas.
Desde el punto de vista de estos diagramas una palabra x es aceptada por
un aut omata A si existe alg un camino en A etiquetado con los smbolos de x
y con transiciones vacas intercaladas en cualesquiera posici on y n umero que
conduzca desde alg un estado inicial hasta alg un estado nal.
Vease un ejemplo en la gura 3(A).
2.4.2. RFSA (Residual Finite State Automaton).
La derivada de un lenguaje L respecto a una palabra x, x
1
L, recibe tambien
el nombre de lenguaje residual de L asociado a x. Un lenguaje residual x
1
L es
compuesto si x
1
L =
_
y
1
L : y
1
L x
1
L
_
. En caso contrario es primo.
Denis, Lemay y Terlutte introdujeron en [9],[10] y [11] el concepto de RFSA
como aut omata nito cuyos estados est an asociados a (o dicho de otra manera,
tienen lenguajes por la derecha iguales a) lenguajes residules del lenguaje que
13
1
2
3
4
(A) (B)

0 1

0,1
0
0,1
0
0,1
0,1
0
0,1
0,1
0
Figura 3: (A) Aut omata nito con transiciones vacas para el lenguaje (0 +01)

. (B)
RFSA can onico para el lenguaje (0 + 1)

0(0 + 1)
2
. Los estados se corresponden con
los siguientes valores de residuos primos: 1 :=
1
L = L, 2 := 0
1
L = L + (0 + 1)
2
,
3 := 01
1
L = L + 0 + 1, 4 := 011
1
L = L + . Los dem as residuos hasta un total de
8, tama no del aut omata nito determinista mnimo, son compuestos.
reconocen. Desarrollaron adem as el algoritmo para la inferencia de lenguajes
regulares DeLeTe2, que produce como salida un RFSA. Este algortmo, uno
de los mas relevantes propuestos ultimamente, ser a uno de los que comparemos
con aquellos que proponemos en este trabajo.
La utilizaci on de RFSAs para representar lenguajes resulta interesante por
el hecho de la existencia para cada lenguaje regular de un RFSA can onico,
minimal entre los RFSAs, que consta siempre de un n umero de estados menor
o igual al del aut omata nito determinista mnimo para ese lenguaje. Adem as,
para algunas subfamilias parametrizadas de lenguajes el tama no del aut omata
nito determinista mnimo crece respecto al valor del par ametro exponencial-
mente m as deprisa que el del RFSA can onico.
Denici on 10 Dado un lenguaje regular L

, el RFSA can onico de L


es el aut omata nito A = Q, , , I, F) donde Q =
_
x
1
L : x
1
L es primo
_
,
I = L, F =
_
x
1
L : x
1
L
_
y (x
1
L, a) = y
1
L : y
1
L xa
1
L.
Vease un ejemplo en la gura 3(B).
2.4.3. Aut omatas maximales asociados a lenguajes nitos.
Sea L un lenguaje nito sobre un cierto alfabeto . Asociamos entonces a
L diferentes aut omatas nitos que lo reconocen, que pasamos a denir a conti-
nuaci on:
Denici on 11 El aut omata can onico maximal de L es el aut omata MCA(L) =
Q, , , I, F) , donde
14
Q = x, y) : xy L ,
I = , x) : x L ,
F = x, ) : x L y
(x, ay) , b) = xa, y) si a = b o si a ,= b, para a, b .
MCA(L) es el mayor aut omata sin estados superuos que acepta el lenguaje
L. Vease un ejemplo de esta denici on y de las siguientes en la gura 4.
Esta denici on diere de la establecida en [12] puesto que los autores con-
sideran solamente aut omatas nitos con un unico estado inicial. Damos ahora
esa denici on bajo un nombre diferente:
Denici on 12 El aut omata can onico maximal con un estado incial de L es el
aut omata MOICA(L) = Q, , , I, F) , donde
Q = x, y) : x
+
, xy L ,
I = ,
F = x, ) : x L si / L o x, ) : x L si L,
(x, ay) , b) = xa, y) si a = b o si a ,= b, para a, b y
(, a) = a, x) : ax L , para a .
Evidentemente MOICA(L) = MCA(L)/
I
.
Denici on 13 El arbol aceptor de prejos de L es el aut omata PTA(L) =
Q, , , I, F) , donde
Q = Pref(L),
I = ,
F = L y
(x, a) = xa si xa Pref(L) o si xa / Pref(L).
PTA(L) es por tanto el mayor aut omata nito determinista sin estados
in utiles que acepta a L. Adem as, PTA(L) = MOICA(L)/ siendo tal que
x
1
, y
1
) y x
2
, y
2
) pertenecen al mismo bloque si y s olo si x
1
= x
2
y es el
unico elemento de su bloque. Puesto que PTA(L) es un cociente de MOICA(L)
y este lo es a su vez de MCA(L), el primero es a su vez un cociente de este
ultimo .
Asociaremos ahora un aut omata nito a cada secuencia nita de palabras,
teniendo en cuenta que, como tal secuencia, puede contener palabras repetidas,
lo cual no tiene sentido cuando hablamos de lenguajes por ser estos conjuntos.
Denici on 14 Sea S = x
i
, 1 i n) una secuencia nita de palabras. Lla-
maremos aut omata can onico secuencial de S al aut omata nito SCA(S) =
Q, , , I, F) donde
Q = i, y, z) : yz = x
i
,
I = i, , x
i
) ,
F = i, x
i
, ) y
(i, y, az) , b) = i, ya, z) si yaz = x
i
y a = b o en caso contrario.
15
Est a claro que SCA(S) puede contener estados superuos. Por otra parte
MCA(S) = SCA(S)/ siendo tal que i
1
, x
1
, y
1
) e i
2
, x
2
, y
2
) pertenecen al
mismo bloque si y s olo si x
1
= x
2
e y
1
= y
2
.
(A)
(B)
(C) (D)
0 0
0 1
1 1
0 1 0
0
0
1
0
0
1
1
1 0
0
1
0
1
1
0
0 0
0 1
0 1
1 1
0 1 0
Figura 4: Siendo L = {, 00, 01, 11, 010} se representan los siguientes aut omatas: (A)
MCA(L), (B) MOICA(L), (C) PTA(L), (D) SCA(, 00, 01, 01, 11, 010).
2.5. Operaciones sobre aut omatas nitos.
A lo largo de este apartado describiremos algunos de los mas conocidos ope-
radores sobre aut omatas nitos.
2.5.1. Cocientes.
Dado un conjunto cualquiera C, una partici on de C es cualquier colecci on
de subconjuntos disjuntos y no vacos de C cuya uni on es el propio C. A cada el-
16
emento de se le denomina bloque. Para cada x C llamaremos (x) al bloque
que contiene a x. La partici on trivial es aquella en la que cada bloque contiene
un solo elemento. Para simplicar la descripci on de una partici on, en algunos
caso enumeraremos solo aquellos bloques que contienen m as de un elemento.
Denici on 15 Sea A = Q, , , I, F) un aut omata nito y sea una partici on
de Q. El aut omata nito A/ =

Q/, ,

, Q/ 2
QI
, Q/ 2
QF
_
, siendo

((p), a) = (q) : ((p), a) (q) ,= , se denomina aut omata cociente de


A por .
Evidentemente si p (q, x) entonces (p)

((q), x) y adem as p I
(p) Q/ 2
QI
y p F (p) Q/ 2
QF
por lo que en todo caso
L(A) L(A/).
Denici on 16 Diremos que un aut omata nito A es irreducible si L(A/) =
L(A) implica que es la partici on trivial.
2.5.2. Reverso.
Denici on 17 Se denomina reverso de un aut omata nito A = Q, , , I, F)
al aut omata nito A
R
=

Q, ,
R
, F, I
_
, donde p, a, q)
R
q, a, p) .
Por inducci on sobre [x[ , x

, se demuestra que
R
(P
1
, x) = P
2

(P
2
, x
R
) = P
1
y de esto se deduce que L(A
R
) = (L(A))
R
.
Evidentemente (A
R
)
R
= A. Adem as, si A es aseado tambien lo es A
R
, si A
es irreducible tambien lo es A
R
y si A es minimal tambien lo es A
R
.
2.5.3. Subaut omatas.
Un subaut omata de un aut omata nito A = Q, , , I, F) es cualquier
aut omata A

= Q

, ,

, I

, F

) tal que Q

Q,

(Q

),
I

I Q

, F

F Q

. Obviamente, si A

es un subaut omata de A entonces


L(A

) L(A).
Denici on 18 Sea A = Q, , , I, F) un aut omata nito y sea P un sub-
conjunto de Q.Denominaremos subaut omata de A inducido por P al aut omata
A
P
= P, , (P P), I P, F P) . Igualmente, dado I

I, F

F
o

llamaremos A
II
, A
FF
, A

respectivamente a los subaut omatas


Q, , , I

, F) , Q, , , I, F

) , Q, ,

, I, F) .
As, A

es un subaut omata de A = Q, , , I, F) si y s olo si existen I

I,
F

F,

y P Q tales que A

es isomorfo a (((A
II
)
FF
)

)
P
.
En algunas construcciones ser a conveniente considerar para un aut omata
A = Q, , , I, F) conjuntos, por ejemplo, de .
es
tadosque no est an includos en
Q. Supondremos en esos casos que
A
P
= Q P, , (P P), I P, F P) , A
II
= Q, , , I I

, F) ,
A
FF
= Q, , , I, F F

) y A

= Q, ,

, I, F) . Esta generalizaci on
presenta algunas ventajas, entre otras que los operadores
II
,
FF
,

y
P
as denidos conmutan.
17
Denici on 19 Un subconjunto no vaco de estados P de un aut omata nito A
es superuo si L(A
QP
) = L(A). Diremos que un aut omata nito es conciso si
no contiene estados superuos.
Puede ocurrir que P
1
y P
2
sean subconjuntos superuos y sin embargo P
1
P
2
no lo sea. Todo estado in util es superuo pero lo inverso no es necesariamente
cierto, aunque s lo es en el caso de los aut omatas nitos deterministas. Un
aut omata irreducible puede tener estados superuos.
As mismo un conjunto de transiciones

, de estados iniciales I

o de estados
nales F

es superuo si, respectivamente, L(A

) = L(A), L(A
III
) =
L(A), L(A
FFF
) = L(A). Diremos que un aut omata nito es estrictamente
conciso si no contiene estados, transiciones, estados iniciales ni estados nales
superuos.
2.5.4. Homomorsmos.
Denici on 20 Un homomorsmo de un aut omata A = Q, , , I, F) sobre
un aut omata A

= Q

, ,

, I

, F

) es cualquier funci on h : Q Q

tal que
h(I) I

, h(F) F

y p, a, q) h(p), a, h(q))

.
Claramente, para todo q Q, L
q
L
h(q)
y R
q
R
h(q)
por lo que si existe
alg un homomorsmo de A sobre A

entonces necesariamente L(A) L(A

).
As, dados dos aut omatas nitos A y A

, existe un homomorsmo de A sobre


A

si y s olo si existe un subaut omata de A

isomorfo a alg un cociente de A.


Denici on 21 Sean A = Q, , , I, F) y A

= Q

, ,

, I

, F

) aut omatas ni-


tos y sea h un homomorsmo de A sobre A

. Sea
h
la partici on de Q tal que
para cada estado q,
h
(q) = p Q : h(p) = h(q). Llamaremos h(A) al sub-
aut omata de A

isomorfo a A/
q
.
La denici on anterior no es completamente estandar, pues tambien se en-
cuentra en la literatura otra seg un la cual h(A) = A

h(q)
, esto es, la imagen de
A sera el subaut omata de A

inducido por el subconjunto h(Q) de Q

. Hemos
preferido utilizar la primera por considerar que nos ser a de mayor utilidad.
Denici on 22 Diremos que el homomorsmo h : A A

es inyectivo o sub-
yectivo si lo es la funci on asociada h : Q Q

.
No es suciente con que h : Q Q

sea inyectiva y subyectiva para que


h : A A

sea un isomorsmo; ha de cumplirse adem as que h(A) = A

.
De esa denici on se desprende que un aut omata nito A es irreducible si y
s olo si L(h(A)) = L(A) implica que h es un isomorsmo.
2.5.5. Uni on.
Denici on 23 Dados A = Q, , , I, F) y A

= Q

, ,

, I

, F

) aut omatas
nitos, llamaremos al aut omata AA

= Q Q

, ,

, I I

, F F

), donde
todas las uniones son disjuntas, uni on de A y A

.
Evidentemente L(A A

) = L(A) L(A

).
18
2.5.6. Determinizaci on.
Denominaremos determinizaci on de un aut omata nito al metodo cl asico de
obtenci on de un aut omata nito determinista aseado equivalente a un aut omata
nito dado.
Sea A = Q, , , I, F) un aut omata nito. Diremos que un subconjunto P
de Q es alcanzable si existe x

tal que (I, x) = P. Llamaremos Alc(2


Q
) al
conjunto de partes alcanzables de Q.
Denici on 24 Dado un aut omata nito A = Q, , , I, F) llamaremos al aut o-
mata nito determinista Det(A) =

Alc(2
Q
), , , I, Alc(2
Q
) 2
QF
_
deter-
minizaci on de A.
Como es bien sabido, el aut omata Det(A) es equivalente a A, pero en el peor
de los casos su n umero de estados es 2
|Q|
.
2.5.7. Minimizaci on.
La minimizaci on es el proceso de obtenci on del aut omata nito determinista
mnimo equivalente a un aut omata nito dado.
Denici on 25 Dado un aut omata nito A = Q, , , I, F) llamaremos Min(A)
al aut omata nito determinista mnimo equivalente a A.
Sea A = Q, , , q
0
, F) un aut omata nito determinista y sea la partici on
de Q tal que (q) = p Q : R
p
= R
q
. Entonces Min(A) = A/.
Este c alculo se puede realizar en tiempo [Q[ ln [Q[ . Sin embargo cuando
tenemos de partida un aut omata nito es preciso realizar primero la deter-
minizaci on del mismo por lo que el proceso en su conjunto es de complejidad
exponencial.
Un metodo alternativo [3], no m as eciente pero s elegante, de minimalizar
un aut omata nito se desprende de la identidad Min(A) = Det((Det(A
R
))
R
).
2.6. Aut omata Universal.
El concepto de aut omata universal de un lenguaje fue establecido por Car-
rez en [4]. Tambien, independientemente, aparece implcito en los trabajos de
Conway [7] y de Kameda y Weiner [23]. Arnold, Dicky y Nivat en [1] formalizan
el concepto y establecen su relevancia en el problema de encontrar aut omatas
nitos minimales equivalentes a uno dado. Lombardy y Sakarovitch en [26] lo
aplicaron al estudio de la star height(el anidamiento mnimo del operador
clausura en las expresiones regulares que representan a un lenguaje) de los
lenguajes regulares. Las deniciones y proposiciones de este apartado pueden
encontrarse, por ejemplo en [29] o [30], donde Pol ak utiliza el aut omata universal
como base de partida en la b usqueda de aut omatas nitos minimales.
Denici on 26 Sea L

un lenguaje cualquiera. Se dene el aut omata uni-


versal de L como U = U, , , I, F), donde U = x
1
1
L ... x
1
n
L : n
19
0, x
1
, ..., x
n

, I = q U : q L, F = q U : q y para dos estados


cualesquiera de U y cualquier smbolo a de , q (p, a) q a
1
p.
Vease como ejemplo la gura 5.
1
2
3
1 2
12
23
123
(A) (B)
0
1
0,1
0,1
0
0
0,1
0,1
0,1
0,1
0,1
0
0,1
0,1
0,1
0,1
0
1
Figura 5: (A) Aut omata nito determinista mnimo para L = ((0 + 1)
2
)

(0 + ).
Los estados se corresponden con los siguientes valores de derivadas de L: 1 := L,
2 := (0 +1)L+, 3 := (0 +1)L. (B) Aut omata universal para el mismo lenguaje. Los
estados se corresponden con los siguientes valores de intersecciones entre derivadas:
1 := L, 2 := (0 + 1)L +, 23 := (0 + 1)L, 12 := (0 + 1)

0 +, 123 := (0 + 1)

0.
Proposici on 27 Sean p
1
, q
1
) , ..., p
n
, q
n
) las soluciones maximales de la in-
ecuaci on L
1
L
2
L y sea U = U, , , I, F) el aut omata universal de L. En-
tonces q
1
, ..., q
n
= U.
Demostraci on. Por el requisito de maximalidad q
i
=
xpi
x
1
L. Por el mismo
motivo p
i
=
xqi
[y]
RL
: yx L.
Proposici on 28 Sea U = U, , , I, F) el aut omata universal de L. Entonces
U acepta a L.
Demostraci on. De la proposici on anterior se desprende que para cada q
i
U,
L
qi
= p
i
y R
qi
= q
i
, por lo que L(U) =
i:qiF
p
i
= [y]
RL
: y L = L.
Proposici on 29 L L
3
su aut omata universal U es un aut omata nito.
Demostraci on. La implicaci on es obvia por la proposici on anterior. Para
demostrar la implicaci on es suciente con observar que si L L
3
el n umero
de conjuntos diferentes de la forma x
1
L es nito por lo que tambien es nito
el n umero de intersecciones diferentes de los mismos, esto es, de estados de U.
20
Proposici on 30 Sea L L
3
, sean D = Q
D
, ,
D
, I
D
, F
D
) su aut omata ni-
to determinista mnimo y U = U, , , I, F) su aut omata universal. Entonces
[U[ 2
|QD|
.
Demostraci on. Dado que Q
D
=
_
x
1
L : x

_
tenemos que U =
qP
q :
P Q
D
, de donde se deduce trivialmente el enunciado.
Proposici on 31 Un aut omata nito A = Q
A
,
A
,
A
, I
A
, F
A
) reconoce un sub-
conjunto de L si y s olo si existe un homomorsmo de A en U.
Demostraci on. La implicaci on es trivial por la propia denici on de homo-
morsmo entre aut omatas nitos. Para demostrar la implicaci on se dene la
funci on que asigna a cada estado q Q
A
el estado de U (q) =
xLq
x
1
L. La
funci on es un homomorsmo por lo que la implicaci on queda demostrada.
21
3. Inferencia gramatical de lenguajes regulares.
3.1. Inferencia gramatical.
Se llama inducci on al proceso mediante el cual podemos pasar de lo partic-
ular a lo general, de observaciones concretas a una proposici on que da cuenta
de las mismas. El proceso de aprendizaje mediante inducci on y en particular
su aplicaci on a la demostraci on de proposiciones, ha sido objeto de estudio y
controversia desde su primera formulaci on, realizada por Arist oteles. En lneas
generales el paradigma de la inferencia inductiva puede ser descrito como sigue:
Un agente, enfrentado con alg un fen omeno, recoge datos experimentales, bien
de forma activa mediante la realizaci on de experimentos, o bien de forma pasiva
mediante la mera observaci on. A continuaci on el agente formula una hip otesis
consistente con los datos que pretende explicar o describir el fen omeno estu-
diado. Si la hip otesis satisface determinados criterios, por ejemplo permite vati-
cinar con exito los resultados de nuevas observaciones del fen omeno, es aceptada
como teora.
Cuando los fen omenos objeto de estudio son o se representan mediante
lenguajes la inferencia inductiva recibe el nombre de inferencia gramatical.
Para denir un problema de inferencia gramatical es necesario especicar
los siguientes conceptos: Dominio de objetos, espacio de hip otesis, metodo de
presentaci on, metodo de inferencia y criterio de exito. Hablaremos brevemente
sobre ellos.
El dominio de objetos es el conjunto de lenguajes que se pretende inferir,
entre los cuales pensamos que est a aquel que buscamos como resultado nal del
proceso. En principio podra considerarse como dominio de objetos cualquier
familia de lenguajes, pero consideraciones tales como la necesidad de poder
averiguar si una palabra pertenece o no al lenguaje en cuesti on reducen en la
pr actica los posibles dominios a las subclases enumerables de la clase de los
lenguajes recursivos.
El espacio de hip otesis es un conjunto de descriptores de los elementos del
dominio de objetos tal que contiene al menos un descriptor para cada elemento
del dominio. Los elementos de este espacio pueden ser gram aticas, aut omatas,
m aquinas de Turing, etc.
El metodo de presentaci on es el tipo de informaci on que se utiliza para
aprender. En el caso del aprendizaje activo este puede ser muy diverso e in-
cluir cosas como consultas a or aculos, solicitudes de determinada informaci on al
maestro, etc. En el caso del aprendizaje pasivo se distinguen dos tipos b asicos
de presentaci on de la informaci on, presentaci on positiva y presentaci on comple-
ta. Una presentaci on positiva es una secuencia, posiblemente innita, de todas
las palabras del lenguaje a aprender. Una presentaci on completa es una sucesi on
de todas las palabras sobre el alfabeto en que est a descrito el lenguaje etique-
tadas seg un su pertenencia o no al mismo. En la pr actica diremos que se utiliza
presentaci on positiva si se aprende exclusivamente a partir de ejemplos, esto es,
de palabras del lenguaje y diremos que se utiliza presentaci on completa si se
aprende usando tambien contraejemplos, esto es palabras que no pertenecen al
22
lenguaje.
Un metodo de inferencia es una funci on que hace corresponder una hip otesis
a cada lenguaje nito, en caso de trabajar con presentaci on positiva, o a cada
par de lenguajes nitos disjuntos en caso de hacerlo con presentaci on com-
pleta. Tradicionalmente los metodos de inferencia se dividen en dos familias,
enumerativos y constructivos. Los metodos enumerativos se basan en una enu-
meraci on del espacio de hip otesis y proporcionan como resultado la primera
hip otesis compatible con los datos. Los metodos constructivos elaboran su sali-
da a partir de los datos de entrada. Entre los primeros resultados obtenidos en
el estudio de la inferencia gramatical se encuentra la demostraci on de que todo
lo que puede ser aprendido mediante metodos constructivos puede ser tambien
aprendido mediante metodos enumerativos. Algunas propiedades consideradas
en general deseables en un metodo de inferencia son la consistencia (en todo
caso la hip otesis de salida clasica correctamente todos los datos de entrada) y
la conservaci on (si la hip otesis obtenida como salida para un conjunto de datos
D
1
es compatible con un superconjunto D
2
de D
1
entonces el algoritmo produce
la misma salida cuando tiene como entrada D
2
).
El concepto de criterio de exito pretende establecer un sistema de evaluaci on
de la ecacia del metodo de inferencia. Las primeras ideas sobre el mismo fueron
extradas del concepto de lmite de una sucesi on por lo que se contempla la
labor de inferencia como un proceso innito cuyo exito est a relacionado con
su comportamiento en el lmite. Posteriormente se han denido otros criterios
tanto de tipo probabilstico como basados en la cantidad de datos necesarios
para aprender con determinada aproximaci on. El criterio de exito mas utilizado
es el de identicaci on en el lmite, introducido por Gold [14][15], seg un el cual un
algoritmo de inferencia identica en el lmite una cierta clase de lenguajes si para
cada elemento L de la misma existe un conjunto de datos tal que para cualquier
superconjunto del mismo compatible con L el algoritmo obtiene como hip otesis
la misma representaci on de L. Otros criterios de exito son los de concordancia en
el lmite [13], -identicaci on en el lmite [34], identicaci on PAC (probablemente
aproximadamente correcta) [33], etc.
El marco actual de la inferencia gramatical fue establecido por Gold, Feld-
man y otros a nales de la decada de los sesenta y principios de la de los setenta
del siglo XX. Entre sus principales trabajos destacan aquellos que marcan el
lmite de lo que puede ser aprendido mediante los diferentes tipos b asicos de pre-
sentaci on. Se demuestra entonces que mediante presentaci on completa pueden
ser aprendidas las subclases enumerables de la clase de los lenguajes recur-
sivos, mientras que mediante presentaci on positiva s olo pueden ser aprendidas
aquellas clases de lenguajes cuyos elementos pueden ser enumerados de forma
que para cada lenguaje exista un subconjunto nito no incluido en ninguno de
los lenguajes anteriores en la enumeraci on. Esto supone, entre otras cosas, que
ninguna clase de lenguajes supernita (que contiene todos los lenguajes nitos
y al menos uno innito) puede ser aprendida mediante presentaci on positiva.
Entre las clases supernitas se encuentran todas las de la jerarqua de Chom-
sky, en particular la de los lenguajes regulares as como algunas de sus subclases
mas relevantes como, por ejemplo, la de los lenguajes sin estrella (star-free en
23
la terminologa inglesa).
3.2. Inferencia gramatical de lenguajes regulares.
3.2.1. Conceptos basicos.
Dado un lenguaje L llamaremos muestra positiva de L a cualquiera de sus
subconjuntos nitos y llamaremos muestra negativa de L a cualquier subcon-
junto nito de su complementario. Una muestra de L es un par formado por
una muestra positiva y una muestra negativa. El tama no de una muestra es la
suma de las longitudes de las palabras que contiene.
Un algoritmo de inferencia es cualquier algoritmo tal que para cualquier
muestra de entrada obtiene como salida una representaci on de un lenguaje com-
patible con la muestra, esto es, un lenguaje que incluye a la muestra positiva y
es disjunto con la negativa.
Un algoritmo inere una familia de lenguajes si para cada muestra de entrada
obtiene como salida un lenguaje de esa familia y adem as cada lenguaje de la
familia se obtiene como salida para al menos una muestra.
En el ambito de un determinado algoritmo de inferencia una muestra S es
caracterstica de un lenguaje L si toda muestra que incluya a S produce como
salida una representaci on de L. Un algoritmo inere en el lmite una familia de
lenguajes si para cada lenguaje de la familia existe alguna muestra caracterstica.
Una familia de lenguajes L es identicable en el lmite en tiempo y datos
polin omicos si para todo sistema nito de representaci on R de los lenguajes de
L existe alg un algoritmo / tal que / inere en el lmite L, / es polin omico
respecto al tama no de la muestra de entrada y para cada lenguaje existe una
muestra caracterstica de tama no polin omico respecto a su representaci on en R.
De forma menos restrictiva, una familia de lenguajes L es identicable en
el lmite en tiempo y datos polin omicos respecto a la representaci on R [18] si
existen algoritmos /
1
, /
2
tales que /
1
inere en el lmite L, /
1
es polin omico
respecto al tama no de la muestra de entrada y /
2
es un algoritmo que para
cada lenguaje calcula una muestra caracterstica en tiempo polin omico respecto
al tama no de cualquier representaci on del lenguaje en R. El hecho de que una
familia de lenguajes sea identicable en el lmite en tiempo y datos polin omicos
respecto a una representaci on R no signica que esa familia sea en s identicable
en el lmite en tiempo y datos polin omicos, por lo que este concepto solo tiene
sentido si la representaci on en cuesti on puede ser considerada razonable.
La familia de los lenguajes regulares no es identicable en el lmite en tiem-
po y datos polin omicos, pues no lo es respecto a su representaci on mediante
aut omatas nitos [18]. Sin embargo s lo es respecto a su representaci on me-
diante aut omatas nitos deterministas que evidentemente puede ser considerada
razonablea que es una de las estructuras mas estudiadas y utilizadas en teora
de lenguajes, adem as de ser una de las mas simples y de las que presentan mas
propiedades interesantes.
24
3.2.2. El algoritmo Trakhtenbrot-Barzdin-Gold.
En 1978 Gold demostr o [15] que el problema de dada una muestra en-
contrar el aut omata nito determinista mas peque no compatible con ella es
NP duro. Este resultado supone evidentemente un freno al aprendizaje de
lenguajes regulares. De hecho, este resultado, junto con otros resultados ne-
gativos ya mencionados condujo a que durante las dos siguientes decadas los
metodos de inferencia propuestos son en su inmensa mayora heursticos que
utilizan presentaci on positiva e ineren subclases no caracterizadas de la fami-
lia de los lenguajes regulares. Esta situaci on no deja de ser parad ojica: Por una
parte, el mismo Gold haba demostrado que la clase de los lenguajes regulares
no es inferible mediante presentaci on positiva y por otra parte del resultado de
Gold se desprende unicamente que un algoritmo consistente en obtener cada vez
que se recibe un nuevo dato un aut omata nito determinista, compatible con el
conjunto actual de datos procesados y minimal en cuanto al n umero de estados,
no sera eciente. Esta reacci on resulta tanto mas sorprendente si se tiene en
cuenta que en el mismo artculo antes referenciado Gold propone un algoritmo
polin omico que permite identicar en el lmite cualquier lenguaje regular.
El algoritmo expuesto por Gold haba sido en realidad propuesto ya por
Trakhtenbrok y Barzdin [32] en 1973, pero haba pasado inadvertido hasta
que fue redescubierto por Gold. Este algoritmo se realiza en dos etapas. En
la primera se calcula a partir de los datos una matriz de caracterizaci on de esta-
dos y en la segunda se obtiene a partir de esta un aut omata nito determinista
presentado inicialmente en forma de m aquina de Mealey. Veamos a continuaci on
una somera descripci on del mismo que comenzaremos describiendo los conceptos
b asicos utilizados.
Una matriz de caracterizaci on de estados sobre un alfabeto es un triplete
S, E, T) donde S y E son lenguajes nitos sobre a cuyos elementos se de-
nomina respectivamente estados y experimentos y T : (S S)E 0, 1, 2 es
una funci on que asigna una etiqueta a cada palabra de (S S)E.
Los datos D
+
y D

contenidos en la matriz son:


x D
+
u (S S), v E : x = uv T(uv) = 1
x D

u (S S), v E : x = uv T(uv) = 0
Para el resto de palabras T(uv) = 2. Cada elemento u de S S dene una
hilera llamada row(u). Se dice que row(u) es obviamente diferente de row(v),
escrito row(u) row(v), si existe un experimento e E tal que T(ue)+T(ve) =
1.
Una matriz de caracterizaci on de estados est a cerrada si ninguna hilera de
S S es obviamente diferente de cada hilera de S.
Dada una muestra D
+
, D

) el algoritmo comienza asignando a S el valor


y a E el conjunto de sujos propios de palabras de la muestra. Se construye
entonces la matriz de caracterizaci on de estados correspondiente. En cada uno
de los siguientes pasos se selecciona una palabra u de SS tal que su hilera es
obviamente diferente de cada una de las correspondientes a palabras de S y se
a nade al conjunto S. Se actualiza entonces la matriz. El proceso contin ua hasta
que la matriz este cerrada.
25
Finalmente se construye el aut omata nito determinista cuyos estados son
las palabras de S y cuyas transiciones son de forma que (u, a) = v siendo v = ua
si ua S o si no siendo v una palabra de S tal que row(v) no es obviamente
diferente de row(ua). Por ultimo, el estado x es nal si T(x) = 1.
Vease un ejemplo en la gura 6.
0 00 001 01 1 1001 110 10
0 0 1 2 0 2 2 2 2
0 1 0 2 1 2 0 1 0 2
1 2 2 1 2 0 2 2 2 2
00 2 1 2 2 1 2 2 2 2
01 2 0 2 1 2 2 2 2 0
000 2 2 2 2 2 1 2 2 2
001 2 2 2 2 2 2 2 2 2

0
00
1
0
1
0
0,1
Figura 6: Proceso mediante el algoritmo de Gold de la muestra S = S+, S, siendo
S+ = {00, 100, 0001, 01001} y S = {, 0, 01, 101, 0110}. Para el c alculo de la matriz
se incluye primero la la para . A continuaci on las las para 0 y 1, siendo esta ultima
equivalente a la de . Se incluyen entonces las las para 00 y 01, siendo esta ultima
equivalente a la de . Por ultimo se incluyen las las para 000 y 001, ambas equivalentes
a , con lo que la matriz queda cerrada. A partir de la matriz se construye el aut omata
Puede ocurrir que el aut omata calculado no sea compatible con la muestra
de entrada, en cuyo caso el algoritmo produce como salida el arbol aceptor de
prejos de la muestra positiva.
En cualquier caso, Gold demostr o que este algoritmo inere polin omicamente
en el lmite la clase de los lenguajes regulares, esto es, que construye un aut omata
nito determinista en tiempo polin omico respecto al tama no de la muestra, que
para cada lenguaje regular L existe una muestra car acterstica S
L
de tama no
polin omico respecto al n umero de estados de su aut omata nito determinista
mnimo y que si una muestra para L contiene a S
L
entonces el algoritmo produce
como salida el aut omata nito determinista mnimo para L.
3.2.3. El algoritmo RPNI.
Como ya hemos comentado, tras la publicaci on de los resultados de Gold el
problema de la inferencia en el lmite de la clase de los lenguajes regulares me-
diante presentaci on completa qued o practicamente abandonado. Esta situaci on
26
permanece inalterada hasta que en 1992 Oncina y Garca [28] presentan el algo-
ritmo RPNI (regular positive and negative inference) y, simultaneamente, Lang
[24] modica el algoritmo Trakhtenbrot-Barzdin-Gold para garantizar la consis-
tencia con la muestra de entrada del aut omata obtenido aun en el caso de que
esta no sea completa, obteniendo as un algoritmo que se comporta exactamente
igual que el RPNI.
Desde entonces el RPNI ha sido sin duda el algoritmo m as relevante y el m as
utilizado en la inferencia de lenguajes regulares y ha dado lugar al desarrollo de
numerosas variantes algunas de las cuales mencionaremos m as adelante.
Una de las caractersticas m as destacables del RPNI es la introducci on del
sistema de inferencia mediante fusi on de estados, metodo del que posteriormente
han hecho uso la mayora de algoritmos y heursticos de inferencia gramatical
de lenguajes regulares.
Dada una muestra, RPNI comienza construyendo una m aquina de Moore
cuyos estados son los prejos de la muestra y cuyas transiciones son de la forma
(x, a) = xa. A cada estado se le asigna la salida 0, 1 o ? seg un este asociado a
una palabra de la muestra positiva, a una de la muestra negativa, o a un prejo
de alguna palabra de la muestra que no es a su vez una palabra de la misma. A
continuaci on intenta fusionar cada estado con alguno de los anteriores en orden
lexicogr aco. Si esta fusi on da lugar a la aparici on de no determinismo han de
realizarse adem as todas las fusiones necesarias para restablecer el determinismo.
Si como resultado de este proceso se produce la fusi on de un estado con salida
0 con otro con salida 1 se descarta la fusi on inicial y se prueba con la siguiente.
La fusi on de un estado con salida s con otro con salida ? da como resultado un
estado con salida s.
Vease un ejemplo en la gura 7.
La complejidad de este algoritmo est a acotada por mn
2
siendo m el tama no
de la m aquina de Moore inicial y n el tama no del aut omata nal. Adem as, para
cada lenguaje regular L existe una muestra caracterstica de tama no acotado por
n
3
[[ siendo n el n umero de estados del aut omata nito determinista mnimo
para L. Siempre que la muestra de entrada contenga una muestra car acterstica
de un lenguaje regular L RPNI produce como salida el aut omata nito deter-
minista mnimo para L. En cualquier otro caso RPNI produce como salida el
aut omata nito determinista mnimo de un lenguaje compatible con la muestra.
Las prestaciones del RPNI han hecho de el un algoritmo de referencia en
inferencia gramatical en el que se han inspirado otros algoritmos y heursticos
basados igualmente en el metodo de inferencia por fusi on de estados. De hecho,
desde su aparici on, la mayor parte de trabajos presentados en el campo de
la inferencia gramatical de lenguajes regulares son heursticos que pretenden
mejorar algunos aspectos del RPNI. Destacan entre estos aquellos basados en
el metodo EDSM (evidence driven state merging) [25]. La idea general de este
metodo consiste en utilizar la informaci on proporcionada por la muestra de
entrada para guiar el orden en que se realizan las fusiones. As, por ejemplo,
si la fusi on de dos estados da lugar a sucesivas fusiones por determinizaci on
de numerosos pares de estados etiquetados con la misma salida es razonable
suponer que ambos estados son efectivamente el mismo.
27
0
0
2
1
0
2
2
2
2
1
0
1
2
0
1
0 0
1
0
0
2
2
1
2
0
1
0 0 1 2
1
1
0 0 1 1
0 0 1
(A)
(B)
(C)
(D)
(E)
(F)
0
1
0
1
0
0
0
1
0
1
1
0
0
1
1
0
0
1
0
0
1
1
0
0
1
1
0
1
0 0
1
1
1
0
1
0
0
1
1
0
1
0
0,1
1
0
1
0
0,1
Figura 7: Proceso mediante el RPNI de la muestra S = S+, S, siendo S+ =
{00, 100, 0001, 01001} y S = {, 0, 01, 101, 0110}. (A)

Arbol aceptor de prejos rep-
resentado mediante una m aquina de Moore. (B) Tras descartar la uni on de los estados
asociados a los prejos y 0, ya que por determinizaci on implicara la fusi on prohibida
de los estados y 00, se fusionan los estados y 1 dando lugar por deteminizaci on a
la m aquina de la gura. (C) El estado 00 no puede fusionarse con ninguno de los ante-
riores. Se fusionan entonces los estados y 01. (D) El estado 000 no puede fusionarse
ni con ni con 0. Se fusiona con 00. (E) El estado 0001 no puede fusionarse ni con
ni con 0. Se fusiona con 00. (F) La m aquina de Moore obtenida es transformada en
este aut omata.
3.2.4. Inferencia no determinista.
El problema de aprender lenguajes regulares utilizando como representaci on
aut omatas nitos es NP duro. Esto es debido a que el tama no de la menor
muestra caracterstica crece de forma no acotada polin omicamente respecto al
n umero de estados de un aut omata nito minimal en algunas subfamilias de
lenguajes regulares. Este resultado ha desalentado la investigaci on hasta el punto
de que solo recientemente se han empezado a publicar algunos resultados. Sin
embargo, no conviene olvidar que, de hecho, este resultado implica que la clase
de los lenguajes regulares no es identicable en tiempo y datos polin omicos, de
forma que s olo asumiendo que los aut omatas nitos deterministas son una re-
28
presentaci on razonablede los mismos puede hablarse de identicaci on mediante
estos de L
3
en tiempo y datos polin omicos.
La utilizaci on de aut omatas nitos deterministas tiene en cualquier caso el
inconveniente de que para muchas familias sencillas de L
3
el n umero de esta-
dos del aut omata nito determinista mnimo de cada lenguaje es exponencial
respecto al de los aut omatas nitos deterministas mnimos para ese lenguaje.
As pues Por que no utilizar algoritmos polin omicos que ineran en el lmite
la clase de los lenguajes regulares utilizando como representaci on aut omatas
nitos?. Al n y al cabo estos algoritmos siempre pueden ser modicados para
ofrecer como resultado el aut omata nito obtenido por el RPNI u otro algoritmo
similar en aquellos casos en que no han podido obtener uno de menor tama no.
El mas conocido de los algoritmos que ineren aut omatas nitos no de-
terministas es el DeLeTe2 [9][10][11]. Este algoritmo utiliza como sistema de
representaci on RFSAs. L
3
no es identicable en el lmite en tiempo y datos
polin omicos respecto a su representaci on mediante RFSAs, pero sin embargo
DeLeTe2 construye un RFSA consistente con la muestra de entrada en tiem-
po polin omico y para cada lenguaje regular es posible construir una muestra
caracterstica de tama no polin omico respecto al tama no del aut omata nito
determinista mnimo para el lenguaje.
Hay que se nalar no obstante, que el uso de RFSAs no elimina en muchos casos
el inconveniente se nalado para los aut omatas nitos deterministas, pues tambien
para muchas familias de L
3
el n umero de estados de los RFSAs minimales de
cada lenguaje es exponencial respecto al de los aut omatas nitos mas peque nos
para ese mismo lenguaje. Este es el caso, por ejemplo, de la familia indexada por
n
_
0
i
: i admite alg un divisor mayor que 1 y menor que n
_
en la que el n umero
de estados crece polin omicamente respecto a n en el caso de los aut omatas nitos
y exponencialmente en caso de los RFSAs. Vease un ejemplo de aut omatas para
un lenguaje de esta familia en la gura 8.
El algoritmo DeLeTe2 es una adaptaci on del algoritmo de Gold al trabajo
con RFSAs. Se basa en el c alculo de una relaci on, que denominaremos

y
que denimos a continuaci on:
Sea S = S
+
, S

) una muestra. Se dene la relaci on sobre Pref(S


+
) de
forma que u v si no existe ninguna palabra w tal que uw S
+
y vw S

.
La relaci on

es la clausura transitiva de . Se dene adem as la equivalencia

de forma que u

v si u

v y v

u.
Cuando DeLeTe2 recibe como entrada la muestra S act ua de la siguiente
manera:
Calcula en primer lugar la secuencia Pref de prejos de S
+
ordenados en
orden can onico e inicializa el aut omata A = Q, , , I, F) al valor , , , , ) .
A continuaci on, para cada elemento u de Pref mira si existe alg un estado v
en Q tal que u

v. Si lo hay, elimina de Pref todas las palabras de la forma


u

. En caso contrario a nade u a Q, si u

a nade u a I, si u S
+
a nade u
a F y por ultimo a nade a todas las transiciones de la forma v, a, u) tales que
v Q, va Pref y u

va y de la forma u, a, v) tales que v Q, ua Pref


y v

ua.
El proceso naliza en el momento en que el aut omata A es consistente con
29
(A)
(B)
0 0 0 0 0 0 0 0 0 0
0
0
0
0
0
0 0 0 0 0 0 0 0 0 0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
Figura 8: (A) Aut omata nito determinista mnimo, que es adem as un RFSA minimal,
para el lenguaje formado por aquellas palabras cuya longitud es m ultiplo de alg un
n umero i siendo 1 < i n y siendo n = 5. (B) Aut omata nito minimal para el mismo
lenguaje. Para n = 11 el RFSA minimal tiene 2310 estados mientras que existen
aut omatas nitos para ese mismo lenguaje con 28 estados.
la muestra S. Puede verse un ejemplo en la gura 9.
Otros algoritmos que ineren aut omatas nitos son NRPNI [2], variante del
RPNI que trabaja con RFSAs y Ub
hc
y U
hc
[6], variantes del RPNI que trabajan
con aut omatas nitos inambiguos.
30
0
0
00
(A) (B) (C)
0,1 0,1
0
0,1
0
0,1
0
0,1
0
0
0,1
0
0,1
Figura 9: Proceso mediante el DeLeTe2 de la muestra S = S+, S, siendo S+ =
{00, 100, 0001, 01001} y S = {, 0, 01, 101, 0110}. El conjunto de prejos es Pref =
{, 0, 1, 00, 01, 10, 000, 010, 100, 0001, 0100, 01001}. (A) A nadimos a Q y a I el estado .
Puesto que

,0 ( 0 y para todo x .x 0.x), a nadimos la transici on , 0, ,


y puesto que

,1, a nadimos la transici on , 1, . (B) Tomamos el prejo 0.


No es equivalente a , pues 0

, as que a nadimos a Q el estado 0. Puesto que


0

,0 a nadimos la transici on , 0, 0. Puesto que

0,0 y

0,1, a nadimos
las transiciones 0, 0, y 0, 1, . Como adem as 0

0,0 a nadimos la transici on


0, 0, 0. (C) 1

por lo que suprimimos de Pref las palabras que comienzan por


1. Consideramos entonces 00 obteniendo el aut omata de la gura que, puesto que es
compatible con la muestra, ser a la salida del algoritmo.
31
4. Minimalizaci on de Aut omatas Finitos.
4.1. Introducci on.
Si estamos interesados en representar una familia de objetos mediante aut o-
matas nitos es evidentemente conveniente que el tama no de la representaci on
sea lo menor posible, esto es, que los aut omatas nitos en cuesti on tengan el
menor n umero posible de estados. Esto resulta particularmente evidente cuando
queremos aplicar a esos aut omatas algortmos con una cierta complejidad.
Lo ideal sera representar cada lenguaje mediante un aut omata nito mini-
mal, esto es, tal que no existe otro con menos estados que reconozca el mismo
lenguaje. Sin embargo, los aut omatas obtenidos mediante algoritmos o sistemas
heursticos de inferencia no tienen en general esa propiedad, por lo que cabe
plantear el problema de dado un aut omata nito, encontrar uno minimal equi-
valente.
Para los aut omatas nitos deterministas existen algoritmos ecientes (de
complejidad O(nlog n)) y sencillos que producen como resultado el aut omata
nito determinista mnimo para el lenguaje en cuesti on. Por desgracia este no es
el caso cuando se trata de aut omatas nitos en general, pues tanto el problema
de encontrar un aut omata nito minimal equivalente a uno dado como el de
averiguar si un aut omata nito es minimal son PSPACE completos.
No queda entonces mas remedio que enfocar el problema de la obtenci on
de aut omatas nitos peque nos desde otros puntos de vista como, por ejem-
plo, intentar que nuestros aut omatas nitos posean determinadas propiedades
que garanticen que su tama no no es innecesariamente grande. Algunas de estas
propiedades deseables son la irreducibilidad, la concisi on y la primalidad. A su
estudio est an dedicadas las siguientes secciones.
4.2. Minimalidad.
4.2.1. Aut omatas nitos minimales.
Como es bien sabido, el aut omata nito determinista mnimo de un lengua-
je regular no es en general minimal respecto al n umero de estados entre los
aut omatas nitos que reconocen ese lenguaje. De hecho su tama no puede llegar
a ser de hasta 2
n
, siendo n el n umero de estados de un aut omata minimal para
el lenguaje correspondiente. Por ejemplo, para los lenguajes de la forma

0
m
sus aut omatas nitos deterministas mnimos tienen tama no 2
m+1
, mientras que
son tambien aceptados por aut omatas con m + 2 estados. En la gura 10 se
muestra el caso en que m = 2.
Adem as, mientras que el aut omata nito determinista es unico, para cada
lenguaje regular puede haber varios aut omatas minimales diferentes. En la gura
11 podemos ver dos aut omatas minimales para el lenguaje 01, 02, 12.
Aunque el problema de encontrar un aut omata minimal equivalente a un
aut omata nito dado es PSPACE completo, se han propuesto algoritmos no
32
(A) (B)
1
0 0
1
0
1
0
1
0
1
0
1
0
1
0
1
0,1
0
0,1 0,1
Figura 10: (A) Aut omata nito determinista mnimo para {0, 1}

0 {0, 1}
2
. (B) Un
aut omata minimal para el mismo lenguaje.
0
1
1,2
2
0
0,1
1
2
Figura 11: Dos aut omatas minimales para el lenguaje {01, 02, 12}.
excesivamente complejos que en ciertos casos consiguen aproximaciones relati-
vamente buenas.
El primer avance signicativo lo establecieron Arnold, Dicky y Nivat en [1]
donde demuestran que cualquier aut omata minimal para un lenguaje regular L
es isomorfo a un subaut omata del aut omata universal para L. Este resultado
ja un espacio de b usqueda nito pero muy grande, pues el n umero de estados
del aut omata universal puede llegar a ser de hasta 2
n
, siendo n el n umero de
estados del aut omata nito determinista mnimo.
Pol ak en [30] expone una serie de condiciones, necesarias unas y sucientes
otras, para que el subaut omata del aut omata universal inducido por un sub-
conjunto de estados acepte el lenguaje completo. Estas condiciones pueden ser
testeadas en tiempo polin omico respecto al tama no del aut omata universal y
pueden ser utilizadas como guas en la b usqueda sistem atica de minimales. Evi-
dentemente, esta aproximaci on no es en absoluto eciente en la pr actica.
Kameda y Weiner, en [23], han desarrollado una teora para abordar el pro-
blema de la minimalizaci on. Para cada aut omata nito denen una matriz que
denominan mapa reducido de estados del aut omata, de la que demuestran que
es isomorfa a la de cualquier otro aut omata nito para el mismo lenguaje, ad-
33
mitiendo tan solo permutaciones de las las y columnas. A partir de este mapa
reducido pueden obtener una secuencia de aut omatas ordenada en cuanto a
n umero de estados que son aut omatas minimales. Sin embargo la construcci on
no garantiza que en todos los casos el aut omata obtenido sea equivalente al
original, por lo que esto debe comprobarse, comprobaci on que como sabemos es
de complejidad PSPACE completo.
Otros autores presentan aproximaciones cuyo objetivo no es ya la b usqueda
de aut omatas minimales sino simplemente de aut omatas mas peque nos equiva-
lentes al original. Algunos de estos algoritmos han probado bastante ecacia en
ciertos casos, pero est an lejos de garantizar siquiera la obtenci on de aut omatas
polin omicos en tama no respecto al aut omata nito determinista mnimo para
el lenguaje.
4.2.2. Minimalidad relativa.
En ciertos campos de la teora de lenguajes, tales como la inferencia induc-
tiva o la representaci on de lenguajes nitos, podemos encontrar el problema
de calcular un aut omata nito lo mas peque no posible que acepte todas las
palabras de un cierto lenguaje nito M
+
y rechace todas las de otro lengua-
je nito M

. En la gura 12 podemos ver algunas soluciones al caso en que


M
+
= 010, 101, M

= 00, 11.
0
1
0,1
0,1
Figura 12: Dos aut omatas minimales compatibles con la muestra M+ =
{010, 101}, M = {00, 11}.
Una soluci on ser a minimal si no existe otro aut omata nito con menos esta-
dos, para el mismo lenguaje o para cualquier otro, compatible con la muestra.
La obtenci on de una soluci on minimal [15] es un problema NP duro a un en
el caso de restringir el espacio de b usqueda al de las aut omatas nitos deter-
ministas. Si prescindimos de la condici on de minimalidad el problema deviene
trivial. Una vez m as surge la necesidad de buscar una situaci on de compromiso
entre ambos extremos. Para el caso de los aut omatas nitos deterministas se
han dise nado algoritmos polin omicos [28][24] que proporcionan una soluci on y
adem as garantizan que esta es mnima cuando los conjuntos M
+
y M

satis-
facen determinadas condiciones, pero en el de los aut omatas nitos no se han
encontrado algortmos de caractersticas similares.
En resumidas cuentas, parece que estamos todava lejos de encontrar al-
gortmos no ya que permitan resolver el problema de la minimalizaci on, si no
que tan siquiera consigan aproximaciones razonables con una cierta garanta.
Dejamos aqu esta cuesti on y pasamos a estudiar otras formas de abordar el
problema de la obtenci on de aut omatas nitos peque nos.
34
4.3. Irreducibilidad.
4.3.1. Aut omatas nitos irreducibles.
Una de las propiedades encaminadas a reducir el tama no de los aut omatas
nitos mas estudiadas es la irreducibilidad respecto a la fusi on de estados. Como
ya hemos visto, un aut omata nito es irreducible si ninguno de sus aut omatas
cocientes es equivalente a el o, lo que es lo mismo, si no contiene dos estados
cuya fusi on de lugar a un aut omata nito equivalente al original.
En el caso de los aut omatas nitos deterministas la irreducibilidad es equi-
valente a la minimalidad, por lo que todo aut omata nito determinista con un
n umero de estados mayor que el ndice de la congruencia por la derecha de
Nerode asociada al lenguaje aceptado contiene estados equivalentes que pueden
ser mezclados preservando el lenguaje reconocido. La aplicaci on de esta misma
idea a los aut omatas nitos ha dado lugar a diferentes sistemas para la reducci on
del n umero de estados ([27],[21],[22],[5],[20]), pero dado que la fusi on puede
realizarse en diferentes ordenes conduciendo a resultados diferentes (ver gura
13) y que la congruencia de Nerode no es suciente para detectar todos los
pares de estados fusionables (ver gura 14) , ninguno de los algoritmos ecientes
existentes garantiza la obtenci on de un aut omata nito irreducible. De hecho
no se conocen algoritmos ecientes que permitan decidir si dos estados dados
de un aut omata nito son o no fusionables.
1
2
3
4
5 1
2,3
4
5 1
2
3,4
5
(A) (B) (C)
0
0
1
0
1
1
0
1
0,1
1
0
0,1
0
1
Figura 13: (A) Aut omata nito reducible. (B) y (C) Diferentes aut omatas cocientes
de (A) equivalentes a el e irreducibles.
Una de las primeras preguntas que uno puede plantearse a la hora de abor-
dar este problema es si est a o no acotado de alguna manera, esto es, si dado
un lenguaje regular existen aut omatas nitos irreducibles que lo aceptan con
cualquier n umero de estados. C ampeanu, S antean y Yu han planteado reciente-
mente este problema en los siguientes terminos:
Sea L un lenguaje regular arbitrario y k 2 un entero arbitrario. Existe (y
si la respuesta es si, construir) una constante E
L,k
tal que cualquier aut omata
nito para L de tama no mayor o igual a E
L,k
contiene al menos k estados
fusionables?
35
X
X
X
(A) (B)
0,1
0,2
1,2
0
0,1
1
0,1,2 0,1
Figura 14: Los nodos marcados del aut omata (A) pueden mezclarse para obtener el
aut omata equivalente (B), pero dado que cada estado tiene lenguajes por la derecha y
por la izquierda diferentes a los de los dem as, la fusi on no es detectada por los metodos
basados en la congruencia de Nerode.
Los mismos autores proponen en [8] una soluci on, basada en la denici on,
para cada estado del aut omata, de dos relaciones de equivalencia, relacionada
una de ellas con la congruencia por la derecha de Nerode y la otra con la
congruencia sint actica, como consecuencia de la cual obtienen la cota E
L,k
=
(k1)P(H
L
)N
L
P(N
L
)+1 donde N
L
es el ndice de la congruencia por la derecha
de Nerode (tama no del aut omata nito determinista mnimo que reconoce L),
H
L
es el ndice de la congruencia sint actica y P(n), el llamado n umero de Bell,
es el n umero de todas las posibles particiones del conjunto 1, ..., n . Dado que
H
L
est a acotado por N
NL
L
y que P(n) =
n

j=1
S
j
n
, siendo S
j
n
el n umero de Stirling
de segunda clase, que tiene como valor el n umero de particiones diferentes de
un conjunto de n elementos en j subconjuntos disjuntos no vacos, tenemos que
la cota encontrada crece en forma similar a N
N
N
L
L
L
.
Esta cota parece demasiado grande, y los autores del trabajo citado proponen
como problema abierto la obtenci on de una m as ajustada. En este captulo,
demostramos la existencia de una cota sustancialmente menor, que adem as es
minimal, utilizando el concepto de aut omata universal de un lenguaje L y las
propiedades que convierten a este en una representaci on can onica de L. Lo mas
sustancial de esta demostraci on puede encontrarse en [16].
4.3.2. Estados fusionables.
Denici on 32 Sea Q un conjunto y sea P un subconjunto del mismo. Llamare-
mos
P
a la partici on de Q en la que P es un bloque y cada uno de los dem as
bloques est a formado por un unico elemento.
Denici on 33 En un aut omata nito A = Q, , , I, F), un conjunto P de
estados es fusionable si L(A/
P
) = L(A).
Equivalentemente, los estados de P son fusionables si el aut omata nito con
transiciones vacas resultante de a nadir a una de tales transiciones desde cada
36
estado de P a cada uno de los dem as estados de P es equivalente al aut omata
original.
Teorema 34 Sea A = Q, , , I, F) un aut omata nito y sea P un subconjunto
de Q. Entonces L(A/
P
) = L(A) (

qP
L
q
)(

p,qP
I
pq
)

(

qP
R
q
).
Demostraci on. Demostraremos primero que
L(A/
P
) L(A) (

qP
L
q
)(

p,qP
I
pq
)

(

qP
R
q
) :
Si x L(A/
P
) existe un camino en A/
P
etiquetado con los smbolos de x.
Si ese camino no pasa por el estado P, ese mismo camino existe para x en A
y por tanto x L(A). En caso contrario existe una factorizaci on x = x
1
...x
n
tal que el camino en cuesti on pasa por el estado P exclusivamente despues de
procesar cada segmento x
i
con 1 i < n. Entonces x
1


qP
L
q
, x
n


qP
R
q
, y
para 1 < i < n, x
i


p,qP
I
pq
por lo que x (

qP
L
q
)(

p,qP
I
pq
)

(

qP
R
q
).
Haremos ahora la demostraci on de la inclusi on inversa:
Primero, si x L(A) entonces x L(A/
P
). Ahora, si x (

qP
L
q
)(

p,qP
I
pq
)

(

qP
R
q
) existe una factorizaci on x = x
1
...x
n
tal que x
1
L
q1
, x
n
R
qn
y para
1 < i < n, x
i
I
piqi
, donde los p
i
y los q
i
pertenecen a P. De ah se deduce
trivialmente la existencia de un camino de aceptaci on para x en A/
P
que pasa
por el estado P exclusivamente tras procesar cada segmento x
i
para 1 i < n.
Corolario 35 Los estados del conjunto P son fusionables si y solo si
(

qP
L
q
)(

p,qP
I
pq
)

(

qP
R
q
) L(A).
Demostraci on. Se desprende trivialmente del teorema anterior.
Dado que la vericaci on de la anterior desigualdad no es realizable mediante
algoritmos ecientes, la mayora de heursticos para la reducci on mediante fusi on
del n umero de estados se basan en condiciones sucientes aunque no necesarias
similares a la enunciada en el siguiente lema:
Lema 36 Sea A = Q, , , I, F) un aut omata nito con transiciones vacas y
sean q
1
y q
2
dos estados de Q. Si q
1
y q
2
tienen el mismo lenguaje por la derecha
entonces son fusionables.
Demostraci on. Demostraremos en primer lugar que si R
q1
= R
q2
entonces
R
q1
= (I
q1
I
q2
I
q1q2
I
q2q1
)

R
q1
:
R
q1
=
R
q1
R
q2
=
I
q1
R
q1
I
q1q2
R
q2
I
q2
R
q2
I
q2q1
R
q1
=
(I
q1
I
q2
I
q1q2
I
q2q1
) R
q1
=
37
(I
q1
I
q2
I
q1q2
I
q2q1
) R
q1
R
q1
=
(I
q1
I
q2
I
q1q2
I
q2q1
)
2
R
q1
(I
q1
I
q2
I
q1q2
I
q2q1
) R
q1
R
q1
=
(I
q1
I
q2
I
q1q2
I
q2q1
)
n
R
q1
... (I
q1
I
q2
I
q1q2
I
q2q1
) R
q1
R
q1
=
(por inducci on)
(I
q1
I
q2
I
q1q2
I
q2q1
)

R
q1
.
Entonces
(L
q1
L
q2
) (I
q1
I
q2
I
q1q2
I
q2q1
)

(R
q1
R
q2
) =
(L
q1
L
q2
) (I
q1
I
q2
I
q1q2
I
q2q1
)

R
q1
=
(L
q1
L
q2
) R
q1
=
L
q1
R
q1
L
q2
R
q1
=
L
q1
R
q1
L
q2
R
q2

L(A).
Este lema nos proporciona una idea intuitiva del camino a seguir para acotar
el tama no de los aut omatas nitos sin estados fusionables:
Sea A = Q, , , I, F) un aut omata nito. Sean q
1
y q
2
dos estados tales
que las clases en la congruencia por la derecha de Nerode de las palabras que
permiten acceder a ellos desde los estados iniciales son exactamente las mismas.
Sea R el lenguaje regular formado por todas aquellas palabras que son un buen
nal en L(A) para todas esas clases. Sea A
R
un aut omata nito que acepta R.
Si ampliamos A a nadiendole A
R
y enviamos transiciones vacas desde q
1
y q
2
hasta el estado inicial de R, que ahora no ser a ya inicial, el aut omata nito con
transiciones vacas as obtenido ser a equivalente a A. Adem as el lenguaje por
la derecha de q
1
y q
2
en el nuevo aut omata es en ambos casos R, por lo que si
fusionamos ambos estados el aut omata obtenido ser a tambien equivalente a A.
Si, por ultimo eliminamos de ese aut omata el subaut omata A
R
obtenemos como
resultado A/
{q1,q2}
que evidentemente ser a equivalente a A. Vease un ejemplo
en la gura 15.
En consecuencia, si dos estados de un aut omata nito tienen lenguajes por
la izquierda formados por palabras (no necesariamente todas , ni las mismas) de
las mismas clases en la congruencia por la derecha de Nerode, esos estados son
fusionables. Siendo N
L
el ndice de esa congruencia, si un aut omata nito para
L tiene 2
NL
+1 o mas estados contendr a necesariamente dos estados fusionables,
por lo que el tama no de un aut omata nito para L sin estados fusionables queda
acotado por 2
NL
.
En el siguiente apartado damos una demostraci on mas formal de este resul-
tado.
4.3.3. Estados fusionables y el aut omata universal.
Proposici on 37 [1]. Sea U el aut omata universal de un lenguaje regular L y
sea A = Q, , , I, F) un aut omata nito que acepta un subconjunto cualquiera
de L. La funci on que asigna a cada estado q de A el estado de U (q) =

xL
A
q
x
1
L es un homomorsmo de A en U.
38
1
2
3
4
5
6 1
2
3
4
5
6 7 8
1
2,5
3
4
6 7 8 1
2,5
3
4
6
(A) (B)
(C) (D)
0,1
1,2
0
0,2
0
0,1,2
3
1
0,1
1,2
0
0,2
0
0,1,2
3
1

0,1
0,1,2
1,2
0
0,1
0,1,2
3

0,1
0,1,2
1,2
0
0,1
0,1,2
3
Figura 15: (A) Aut omata nito cuyo lenguaje genera las clases
{}, {0}, {1, 2}, {00, 01, 03, 10, 11, 12, 20, 21, 22}, y otra formada por las dem as
palabras. A los estados 2 y 5 llegan palabras de las mismas clases, la {0}, y la {1, 2}
cuyos buenos nales comunes forman el lenguaje {0, 1}. (B) Agregamos el aut omata
para el lenguaje {0, 1} y dirijimos a su estado inicial transiciones vacas desde los
estados 2 y 5. Esto no vara el lenguaje reconocido. (C) Ahora los estados 2 y 5
tienen el mismo lenguaje por la derecha, por lo que podemos fusionarlos sin alterar
el lenguaje reconocido. (D) Si eliminamos el subaut omata agregado obtenemos un
aut omata cociente del original y equivalente al mismo.
Llamaremos homomorsmo can onico a ese homomorsmo.
Comentario 38 Sea U = (U, , , I, F) el aut omata universal de un lengua-
je regular L. Para cada estado q de U sea x
1
, ..., x
n
un conjunto maximal
de palabras tal que para i, j 1, ..., n , si i ,= j, entonces x
1
i
L ,= x
1
j
L
y q =
n

i=1
x
1
i
L. Se puede apreciar f acilmente que cada palabra de [x
i
]
L
al-
canza el estado x
1
i
L y, por la denici on de la funci on de transici on de U,
alcanza cualquier estado de U que sea un subconjunto de x
1
i
L. Por tanto
39
L
U
q
=
n

I=1
[x
i
]
L
.
Lema 39 Sea A un aut omata nito para el lenguaje L y sea U el aut omata
universal de L. Sean p y q estados de A y sea el homomorsmo can onico de
A en U. Entonces:
1. L
A
q
L
U
(q)
2. R
A
q
(q) R
U
(q)
3. I
A
pq
I
U
(q)(q)
Demostraci on. La primera armaci on se deduce directamente del comentario
anterior. La segunda proviene del hecho de que si un estado q es alcanzado por
palabras pertenecientes a diferentes clases en
L
, su lenguaje por la derecha
debe estar incluido en la intersecci on de los lenguajes residuales de esas clases.
Por ultimo, la tercera se sigue del hecho de que es un homomorsmo entre
aut omatas.
Lema 40 Sea A un aut omata nito para el lenguaje L y sea U el aut omata
universal de L. Sea el homomorsmo can onico de A en U. Si existen k estados
de A, q
1
, ..., q
k
tales que (q
1
) = ... = (q
k
) entonces los estados q
1
, ..., q
k
son
fusionables.
Demostraci on. Por el lema anterior
(
k

i=1
L
A
qi
)(
k

i,j=1
I
A
qi,qj
)

(
k

i=1
R
A
qi
) L
U
(q1)
(I
U
(q1)
)

R
U
(q1)
L
U
(q1)
I
U
(q1)
R
U
(q1)

L
Teorema 41 Sea A = Q, , , I, F) un aut omata nito para el lenguaje L. Si
[Q[ > (k 1)2
NL
el aut omata A contiene al menos k estados fusionables.
Demostraci on. El n umero de estados del aut omata universal est a acotado por
2
NL
. Por el principio de la caja de Dirichlet, si [Q[ > (k 1)2
NL
, al menos k
tendr an la misma imagen bajo .
La cota calculada no puede ser reducida. Para demostrarlo, dado que el
aut omata universal de un lenguaje regular no contiene estados fusionables, es
suciente con denir para cada alfabeto una familia de aut omatas nitos
deterministas mnimos tales que las intersecciones de sus lenguajes residulales
son todas diferentes entre s y cuyos aut omatas universales tienen, por tanto,
2
NL
estados. Para n 2 considerese el aut omata A(n) = (Z
n
, , , 0, Z
n
0)
con funci on de transici on denida como sigue:
Para cada estado i en Z
n
y cada smbolo a, (i, a) = (i + 1)modn. Vease
como ejemplo el aut omata A(3) y su aut omata universal en la gura 16.
Demostraremos ahora un resultado adicional:
Teorema 42 Sea A = Q, , , I, F) un aut omata nito para el lenguaje L y
sea U el aut omata universal de L. Los estados q
1
y q
2
de A son fusionables si
y solo si existe alg un homomorsmo de A en U tal que (q
1
) = (q
2
).
40
0
1
2
0 1 2
1,2 0,2 0,1
(A) (B)
Figura 16: (A) Aut omata nito determinista mnimo para el lenguaje formado por
aquellas palabras cuya longitud no es m ultiplo de tres. (B) Aut omata universal para
el mismo lenguaje en el que se han suprimido los estados in utiles correspondientes a
la intersecci on de todos los estados del mnimo y a la de ninguno.
Demostraci on. En primer lugar, si existe el homomorsmo entonces
L
_
A/
{q1,q2}
_
L((A)) L(U) L(A) y por tanto q
1
y q
2
son fusionables.
Y, en segundo lugar, si q
1
y q
2
son fusionables sea el homomorsmo can onico
de A/
{q1,q2}
en U. Entonces la funci on de Q en U tal que a cada estado p de
Qq
1
, q
2
le asigna ((p)) y (q
1
) = (q
2
) = ((q
1
)) es un homomorsmo
de A en U tal que (q
1
) = (q
2
).
En terminos de la congruencia por la derecha de Nerode el teorema anterior
signica que los estados q
1
y q
2
de Ason fusionables si y solo si existe un conjunto
nito de palabras x
i
tal que L
q1
L
q2

xi{xi}
[x
i
]

L(A)
y R
q1
R
q2

xi{xi}
x
1
i
L(A).
Corolario 43 Sea A = Q, , , I, F) un aut omata nito para el lenguaje L y
sea U el aut omata universal de L. A es irreducible si y solo si todo homomor-
smo de A en U es inyectivo.
Demostraci on. Se desprende trivialmente del teorema anterior.
4.3.4. Irreducibilidad relativa.
En ciertos campos de la teora de lenguajes, tales como la inferencia induc-
tiva o la representaci on de lenguajes nitos, podemos encontrar el problema
de calcular un aut omata nito lo mas peque no posible que acepte todas las pa-
labras de un cierto lenguaje nito M
+
y rechace todas las de otro lenguaje nito
M

. La obtenci on de una soluci on minimal [15] es un problema NP duro. Si


prescindimos de la condici on de minimalidad el problema deviene trivial. Una
vez mas surge la necesidad de buscar una situaci on de compromiso entre am-
41
bos extremos, consistente en exigir al aut omata obtenido ciertas propiedades,
irreducibilidad, concisi on etc. que garanticen que no es innecesariamente grande.
Como veremos m as adelante, s es f acil garantizar que el resultado obtenido
mediante un metodo cualquiera sea cuanto menos un aut omata nito irreducible.
Denici on 44 Un aut omata nito A = Q, , , I, F) es irreducible en el lengua-
je L si y s olo si L(A) L y para toda partici on no trivial de Q se cumple que
L(A/) L ,= .
Teorema 45 Sean L un lenguaje regular, U el aut omata universal de L y A =
Q, , , I, F) un aut omata nito tal que L(A) L. A es irreducible en L si y
s olo si todo homomorsmo de A en U es inyectivo.
Demostraci on. Demostraremos primero la condici on s olo si: Si es un ho-
momorsmo no inyectivo de A en U existir an estados q
1
y q
2
de Q tales que
(q
1
) = (q
2
). Entonces L
_
A/
{q1,q2}
_
L((A)) L(U) L y por tanto A
no es irreducible en L.
Veamos ahora la condici on si: Si A no es irreducible en L existir an estados
q
1
y q
2
de Q tales que L
_
A/
{q1,q2}
_
L. Entonces, siendo el homomorsmo
can onico de A/
{q1,q2}
en U, la funci on de A en U tal que a cada estado p de
Qq
1
, q
2
le asigna ((p)) y (q
1
) = (q
2
) = ((q
1
)) es un homomorsmo
no inyectivo de A en U. Vease un ejemplo en la gura 17.
a
0
a
1
a
2 l
0
l
1
u
0
u
1
(A) (B) (C)
0
0 0 0
0 0
0
0
0
Figura 17: (A) Aut omata nito A para el lenguaje 0

00. (B) y (C) Aut omata nito de-


terminista mnimo y Aut omata universal para el lenguaje L = 0

0. A no es irreducible
en L pues el homomorsmo h(a0) = h(a1) = u0, h(a2) = u1 no es inyectivo.
Lema 46 Un aut omata nito A es irreducible si y s olo si existe alg un lenguaje
L tal que A es irreducible en L.
Demostraci on. La implicaci on se deduce de que si A es irreducible entonces
es irreducible en L(A). Para demostrar la implicaci on es suciente con obser-
var que, puesto que L(A) L, si L(A/) acepta alguna palabra que no pertenece
a L entonces acepta tambien una palabra (la misma) que no pertenece a L(A).
Lema 47 Un automata nito A = Q, , , I, F) es irreducible si y s olo si existe
alg un lenguaje conito L tal que A es irreducible en L.
42
Demostraci on. Por el lema anterior es suciente con demostrar la implicaci on
. Dado que el conjunto Q es nito tambien lo es el conjunto
i
de sus
particiones no triviales. Puesto que A es irreducible, para cada partici on no
trivial
i
existe al menos una palabra que no pertenece a L(A) y si a L(A/
i
).
Sea, para cada i, x
i
la menor en orden can onico de tales palabras, sea x
i
el
lenguaje nito formado por ellas y sea L = x
i
. Entonces A es irreducible en
L.
Lema 48 Sea A = Q, , , I, F) un aut omata nito, sean P
1
y P
2
subconjuntos
de Q y sean q
1
P
1
y q
2
P
2
. Entonces L(A/
{qi,qj}
) L L(A/
P1P2
)
L.
Demostraci on. Se desprende trivialmente del hecho de que para toda partici on
de Q, L(A) L(A/).
Teorema 49 El problema de dados un aut omata nito A = Q, , , I, F) y un
lenguaje nito M

L(A) encontrar un aut omata nito A

de tama no menor
o igual que A e irreducible en M

tal que L(A) L(A

) es polin omico respecto


a [Q[ y |M

| .
Demostraci on. Sea Q = q
1
, ..., q
n
y sea M

= x
1
, ..., x
m
. Supongamos que
en el aut omata A/
{qj,qi}
el estado q
j
, q
i
recibe como nombre q
j
. El algoritmo
A

= A
DESDE i = 2 HASTA n
DESDE j = 1 HASTA i
SI q
j
es un estado de A

compatible = CIERTO
DESDE k = 1 HASTA m
SI x
k
L(A

/
{qj,qi}
)
compatible = FALSO
SI compatible
A

= A

/
{qj,qi}
computa un aut omata A

con las caractersticas requeridas. (Vease un ejem-


plo en la gura 18).
Ya hemos visto que un aut omata nito determinista A = Q, , , I, F) es
irreducible si y s olo si es mnimo. Pero puede ocurrir que A no sea irreducible
en un lenguaje L y sin embargo no exista ninguna partici on de Q tal que
L(A/) L y A/ sea un aut omata nito determinista. Cabe entonces intro-
ducir el concepto de irreducibilidad determinista relativa.
Denici on 50 Un aut omata nito determinista A = Q, , , I, F) es deter-
ministicamente irreducible en un lenguaje L si y s olo si L(A) L y no existe
ninguna partici on de Q tal que L(A/) L y A/ sea un aut omata nito
determinista.
43
1
2
3
4
5
1,3
2 4
5
1,3
2,4
5
5
4
3
2
1
5
4
3 1,2
(A) (B) (C)
(D) (E)
0
1
0
1
1
0
1
1 1
0
0
0
1
1
1
1
0
0
1
1
1
0
1
0
1
1
0
1
1
0
1
0
1
1
0
1
1
Figura 18: Se pretende obtener un aut omata nito a partir del mostrado en (A)
irreducible respecto a M = {001, 010}. Se prueba a fusionar primero los estados 1
y 2, pero el aut omata obtenido acepta la palabra 001. A continuaci on se prueba a
fusionar 1 y 3 obteniendose el de la gura (B), compatible con la muestra. Se desecha
la mezcla de {1, 3} y 4 que acepta 010 y se prueba con 2 y 4 resultando el aut omata
(C). Dado que 5 no puede mezclarse ni con {1, 3} ni con {2, 4} (C) es el aut omata
buscado. (D) y (E) muestran que una ordenaci on diferente de los nodos produce un
resultado diferente. Los intentos de mezcla pueden en realidad hacerse en cualquier
orden aleatorio.
Lema 51 La irreducibilidad determinista relativa en un lenguaje no implica la
irreducibilidad en ese mismo lenguaje.
Demostraci on. Basta con considerar el aut omata
A = q
0
, q
1
, q
2
, a, , q
0
, q
2
) con (q
i
, a) = q
(i+1)mod3
, el cual no es irre-
ducible en a
+
pero si es deterministicamente irreducible en el mismo.
4.4. Concisi on.
4.4.1. Aut omatas nitos concisos.
Un aut omata nito es conciso si no contiene estados superuos, esto es, si
la eliminaci on de cualquier estado del aut omata junto con las transiciones que
acceden a el o parten de el da lugar a un aut omata que no es equivalente al
original.
44
Un aut omata nito determinista es conciso si y s olo si es aseado. En otras
palabras un estado de un aut omata nito determinista es superuo si y s olo si
es in util. Debido a ello la eliminaci on de los estados superuos puede realizarse
mediante algortmos lineales. Tambien en el caso de los aut omatas nitos en
general la eliminaci on de los estados in utiles puede hacerse linealmente, pero en
este caso nos encontramos con que no todos los estados superuos son in utiles.
De hecho, los problemas de dado un aut omata nito averiguar si es o no conciso
y de dado un estado de un aut omata nito averiguar si es o no superuo son
PSPACE completos.
En esta situaci on nos planteamos la misma cuesti on ya resuelta en el caso de
los aut omatas irreducibles: Dado un lenguaje regular existen aut omatas nitos
concisos arbitrariamente grandes que lo acepten o, por el contrario, existe una
constante asociada al lenguaje tal que todo aut omata nito que lo acepte de
tama no mayor a ese valor contiene necesariamente estados superuos?. Como
veremos, en este caso la respuesta es muy distinta a la obtenida en aquel.
4.4.2. Estados superuos.
Denici on 52 Sea A = Q, , , I, F) un aut omata nito y sea P un subcon-
junto de Q. Denominaremos A
P
al subaut omata de A inducido por QP.
Por lo tanto,
A
P
= QP, , (P Q) (Q P), I P, F P).
Denici on 53 Sea A = Q, , , I, F) un aut omata nito y sea P un subcon-
junto de Q. Diremos que el subconjunto P es superuo si L(A
P
) = L(A) .
Puede ocurrir que los subconjuntos P
1
y P
2
sean superuos y que sin embargo
P
1
P
2
no lo sea, pues aunque P
2
sea superuo en A no tiene por que serlo en
A
P1
.
Lema 54 Sea L un lenguaje nito y sea [[L[[ la suma de las longitudes de las
palabras de L. El aut omata nito para L de mayor tama no sin estados superuos
contiene [[L[[ +[L[ estados.
Demostraci on. Sea MCA(L) el aut omata nito maximal para L. Este aut oma-
ta contiene [[L[[ + [L[ estados, ninguno de los cuales es superuo. Cada estado
corresponde a un par prejo-sujo de una palabra de L. Este aut omata utiliza
un subconjunto de estados en el proceso de cada palabra x de tama no [x[ +1, el
m aximo posible, y adem as disjunto al utilizado en el proceso de cualquier otra
palabra. Cualquier otro aut omata que reconozca L podr a hacerlo utilizando co-
mo m aximo [[L[[ +[L[ estados por lo que si tiene m as, algunos ser an superuos.
Teorema 55 Todo lenguaje regular innito es aceptado por aut omatas nitos
arbitrariamente grandes sin estados superuos.
45
Demostraci on. Sea L un lenguaje regular innito. Entonces existe una palabra
x de L que admite una factorizaci on x = uvw tal que v ,= y uv

w L.
Sea A
1
un aut omata nito sin estados superuos para L uv

w. Sea, para
cada n 0, A
2,n
el aut omata nito determinista mnimo para uv
n
w y A
3,n
el aut omata nito determinista mnimo para uv

w
n

i=0
uv
i
w. Cada aut omata
A
n
= (
n

i=0
A
2,n
) A
1
A
3,n
es un aut omata nito sin estados superuos para L.
Adem as, siendo Q
n
el conjunto de estados de A
n
tenemos que [Q
n
[ > [Q
n1
[ .
En la gura 19 puede verse un ejemplo de esta construcci on.
A A
1
A
2,0
A
2,1
A
2,2
A
3,2
0,1
0
1
0,1
0 0 0
0 0 0
0
Figura 19: Para obtener aut omatas arbitrariamente grandes equivalentes a A selec-
cionamos una palabra de L(A), 0 en este caso, y la dividimos en tres factores, en el
ejemplo u = , v = 0, w = , de forma que uv

w L(A). Ahora, para cualquier


valor de n, 2 en el ejemplo, obtenemos los aut omatas A1 : L(A1) = L(A) uv

w,
A2,i, 0 i n tales que L(A2,i) = uv
i
w y por ultimo A3,n : L(A3,n) = {uv
j
w, j > n}.
El aut omata resultante de la uni on de todos ellos es equivalente a A, no tiene estados
superuos y el n umero de estados crece estrictamente con el valor de n.
4.4.3. Aut omatas nitos concisos irreducibles.
Como hemos visto, el tama no de un aut omata nito irreducible para un
lenguaje L est a acotado superiormente por el tama no del aut omata universal
para ese lenguaje, el cual a su vez est a acotado por 2
NL
siendo N
L
el tama no
de su aut omata nito determinista mnimo. Pero en el aut omata universal el
subconjunto formado por todos los estados excepto los N
L
que corresponden a
valores del tipo x
1
L es un conjunto superuo. Cabra entonces plantearse la
46
existencia de una cota polin omica en N
L
al tama no del mayor aut omata nito
para L conciso e irreducible. Veremos a continuaci on que no existe esa cota.
Lema 56 Sea un alfabeto no trivial, esto es, formado por dos o mas smbo-
los. No existe una cota superior polin omica respecto a N
L
al tama no de los
aut omatas nitos concisos irreducibles que aceptan un lenguaje L

.
Demostraci on. Basta para demostrar el enunciado con encontrar una familia
L
n

n1
de lenguajes tal que N
Ln
crezca polin omicamente con n y una famila
A
n

n1
de aut omatas nitos concisos e irreducibles tales que L(A
n
) = L
n
y
el n umero de estados de cada A
n
sea funci on exponencial de n.
Sea L
n
=
n1
0

el lenguaje formado por todas aquellas palabras sobre


tales que su enesimo smbolo es 0. Evidentemente N
Ln
= n +2 aunque si elimi-
namos el estado superuo su aut omata nito determinista mnimo tendr a n+1
estados. Sea L
R
n
=

0
n1
el reverso de L
n
. El aut omata nito determinista
mnimo para L
R
n
tiene 2
n
estados, por lo que su reverso es un aut omata nito
conciso e irreducible para L
n
con 2
NLn
2
estados.
Vease en la gura 20 el caso para = 0, 1 y n = 2.
(A) (B)
1
0 0
1
0
1
0
1
0
1
0
1
0
1
0
1
0,1
0,1 0,1
0
Figura 20: (A) Aut omata nito determinista mnimo para {0, 1}
2
0 {0, 1}

. (B) Un
aut omata irreducible y conciso para el mismo lenguaje.
4.4.4. Concisi on relativa.
Por motivos similares a los expuestos para introducir el concepto de irre-
ducibilidad relativa introducimos ahora el de concisi on relativa:
Denici on 57 Un aut omata nito A = Q, , , I, F) es conciso en el lenguaje
L si y solo si L(A) L y para todo subconjunto no vaco P de Q se cumple que
L L(A
P
) ,= .
Lema 58 Un automata nito A es conciso si y solo si existe alg un lenguaje L
tal que A es conciso en L.
47
Demostraci on. La implicaci on se deduce de que si A es conciso entonces
es conciso en L(A). Para demostrar la implicaci on es suciente con observar
que, puesto que L(A) L, si L(A
P
) no acepta alguna palabra que pertenece
a L entonces tampoco acepta una palabra (la misma) que pertenece a L(A).
Lema 59 Un automata nito A = Q, , , I, F) es conciso si y solo si existe
alg un lenguaje nito L tal que A es conciso en L.
Demostraci on. Por el lema anterior es suciente con demostrar la implicaci on
: Dado que el conjunto Q es nito tambien lo es el conjunto P
i
de sus
subconjuntos no vacos. Puesto que A es conciso, para cada subconjunto no
vaco P
i
existe al menos una palabra que pertenece a L(A) y no a L(A
Pi
). Sea,
para cada i, x
i
la menor en orden can onico de tales palabras, sea L = x
i
el
lenguaje nito formado por ellas. Entonces A es conciso en L.
Lema 60 Sea A = Q, , , I, F) un aut omata nito, sea P un subconjunto de
Q y sea q P. Entonces L(A
q
) L L(A
P
) L.
Demostraci on. Se desprende trivialmente del hecho de que para todo subcon-
junto P de Q, L(A) L(A
P
).
Teorema 61 El problema de dados un aut omata nito A = Q, , , I, F) y un
lenguaje nito M
+
L(A) encontrar un aut omata nito A

con un n umero de
estados menor o igual que el de A conciso en M
+
tal que L(A) L(A

) es
polin omico respecto a [Q[ y |M
+
| .
Demostraci on. Sea Q = q
1
, ..., q
n
y sea M
+
= x
1
, ..., x
m
. El algoritmo
A

= A
DESDE i = 1 HASTA n
compatible = CIERTO
DESDE j = 1 HASTA m
SI x
j
/ L(A

qi
)
compatible = FALSO
SI compatible
A

= A

qi
computa un aut omata A

con las caractersticas requeridas.


El aut omata obtenido depender a del orden establecido entre los estados de
Q. Vease por ejemplo la gura 21.
4.4.5. Irreducibilidad y concisi on relativas.
Nos jaremos ahora en el problema de dados dos lenguajes nitos M
+
y
M

tales que M
+
M

= encontrar un aut omata nito irreducible en M

y
conciso en M
+
.
48
1 2 3
4 5 6
7 8 9
1 2
4 5 6
7 8 9
1 2
4 5
7 8 9
1 2
4 5
7 8
9 4 8
3 7 2
6 1 5
9 4 8
7 2
5
A
A
{3}
A
{3,6}
A
{3,6,9} A
A
{1,3,6}
0
1 0
1
0
0
1
1
1
0
0
0
1
0
1
1
0
1
0
1 0
0
1
1
0
0
0
1
0
1
1
0
1
0
1 0
0
1
1
0
0
1
1
0
1
0
1 0
0
1
1
0
0
1
1
0
1 0
1
0
0
1
1
1
0
0
0
1
0
1
1
0
1
0
0
1
0
1
1
0
0
1
0
Figura 21: Se pretende obtener un aut omata nito a partir de A conciso respecto a
M+ = {0, 0010, 1001, 1010}. Se prueba a eliminar primero los estados 1 y 2, pero los
aut omatas obtenidos no aceptan la palabra 0010. A continuaci on se prueba a eliminar
3 obteniendose A
{3}
, compatible con la muestra. Se deshecha la eliminaci on de 4 y
la de 5 ya que en ambos casos no se aceptara 1001 y se prueba con 6 resultando el
aut omata A
{3,6}
, compatible. Se deshecha la eliminaci on de 7 y la de 8 por no aceptar
1001 y por ultimo se elimina el 9 obteniendose A
{3,6,9}
, aut omata conciso en M+.
Una ordenaci on diferente de los nodos produce un resultado diferente.
Notaci on 62 A lo largo de este apartado, denominaremos Irreducible(A, L)
y Conciso (A, L) a cualquier aut omata obtenido a partir de A utilizando los
algoritmos descritos anteriormente para la obtenci on de aut omatas irreducibles
en L y concisos respecto a L respectivamente.
Lema 63 Sean M
+
y M

dos lenguajes nitos tales que M


+
M

= . Sea
A = Q, , , I, F) un aut omata nito tal que M
+
L(A) M

. Entonces
M
+
L(Irreducible(A, M

)) y L(Conciso (A, M
+
)) M

.
Demostraci on. Se deduce trivialmente del hecho de que
L(A) L(Irreducible(A, M

)) y L(Conciso (A, M
+
)) L(A).
Lema 64 Sean M
+
y M

dos lenguajes nitos tales que M


+
M

= . Sea
A = Q, , , I, F) un aut omata nito irreducible en M

y tal que M
+
L(A).
El aut omata Conciso (A, M
+
) no es necesariamente irreducible en M

. En otras
49
palabras Irreducible(A, M

) = A Irreducible(Conciso (A, M
+
) , M

) =
Conciso (A, M
+
) .
Demostraci on. Sean por ejemplo M
+
= 0010, M

= , 1, 10, 110 y
A = 1, 2, 3, 4, 0, 1, , 1, 2) con
= 1, 0, 2) , 1, 1, 4) , 2, 0, 3) , 3, 1, 1) , 4, 0, 3) . Se puede comprobar senci-
llamente que se cumplen las condiciones expuestas en el enunciado del lema.
Sin embargo A

= Conciso (A, M
+
) = 1, 2, 3, 0, 1,

, 1, 2) con

=
1, 0, 2) , 2, 0, 3) , 3, 1, 1) no es irreducible en M

pues los estados 2 y 3 pueden


fusionarse dando lugar al aut omata A

= A

/
{2,3}
=
Irreducible(Conciso (A, M
+
) , M

) = 1, 2, 0, 1,

, 1, 2) con

= 1, 0, 2) , 2, 0, 2) , 2, 1, 1) . Para mas claridad vease la gura 22.


1 2
3 4
1 2
3
1 2
(A) (B) (C)
0
1 0
1
0
0
0
1
0
1
0
Figura 22: (A) Este aut omata es irreducible en M siendo M = {, 1, 10, 110}, pero
no es conciso respecto a M+ = {0010}. Aplicando el algoritmo obtenemos (B) que es
conciso respecto a M+ pero no irreducible en M ya que podemos unir los estados 2
y 3 obteniendo (C) que es irreducible en M y conciso respecto a M+.
Lema 65 Sean M
+
y M

dos lenguajes nitos tales que M


+
M

= . Sea
A = Q, , , I, F) un aut omata nito conciso en M
+
y tal que L(A) M

.
El aut omata Irreducible
_
A, M

_
no es necesariamente conciso en M
+
. En
otras palabras Conciso(A, M
+
) = A Conciso(Irreducible(A, M

), M
+
) =
Irreducible
_
A, M

_
.
Demostraci on. Sean M
+
= 2, 01, 10, 20, 21, M

= , 0, 00, 11, 22, 200, A =


1, 2, 3, 4, 5, 6, 0, 1, 2, , 1, 2, 6) con =
1, 2, 2) , 1, 1, 3) , 1, 0, 4) , 1, 2, 4) , 1, 2, 5) , 3, 0, 6) , 4, 1, 6) , 5, 0, 6) , 5, 1, 6) .
Entonces L(A) es conciso en M
+
y est a incluido en M

. Sea Q) = 1, 2, 3, 4, 5, 6) .
Entonces Irreducible(A, Q) , M

) = A

= 1, 2, 4, 5, 6, 0, 1, 2,

, 1, 2, 6)
con

=
1, 1, 2) , 1, 2, 2) , 1, 0, 4) , 1, 2, 4) , 1, 2, 5) , 2, 0, 6) , 4, 1, 6) , 5, 0, 6) , 5, 1, 6)
que no es conciso en M
+
ya que el estado 5 es superuo. Vease la gura 23.
Teorema 66 El problema de dados dos lenguajes nitos M
+
y M

tales que
M
+
M

= encontrar un aut omata nito A conciso en M


+
e irreducible en
M

es polin omico respecto a |M


+
| y |M

| .
50
1
2
3
4
5
6 1
2
4
5
6 1
2
4 6
(A) (B) (C)
2
1
0,2
2
0
1
0,1
1,2
0,2
2
0
1
0,1
1,2
0,2
0
1
Figura 23: (A) Este aut omata es conciso respecto a M+ = {2, 01, 10, 20, 21} pero
no es irreducible en M siendo M = {, 0, 00, 11, 22, 200}, ya que podemos unir los
estados 2 y 3 obteniendo (B) que es irreducible en M pero no conciso respecto a
M+ ya que podemos eliminar el estado 5 obteniendo (C) que es irreducible en M y
conciso respecto a M+.
Demostraci on. Cualquier algoritmo de la forma
A = ACM(M
+
)
REPETIR
A

= A
A = Conciso(Irreducible(A, M

), M
+
)
HASTA A = A

resuelve el problema y es polin omico respecto a |M


+
| y |M

| ya que lo son
los algoritmos Conciso e Irreducible y dado que o bien A

= A o bien A tiene
estrictamente menos estados que A

, el bucle REPETIR se ejecutar a como


mucho |M
+
| +[M
+
[ veces.
51
5. Redes de aut omatas cocientes.
Este concepto fue introducido en [12] con el prop osito de establecer un marco
que permita considerar el problema de la inferencia de lenguajes regulares como
una b usqueda dentro de una red booleana construda a partir de un subconjunto
nito del lenguaje a aprender. En el mismo artculo los autores enuncian adem as
algunas propiedades de ese espacio de b usqueda.
En este captulo generalizamos en diversas maneras el concepto de red de
aut omatas nitos y profundizamos en el estudio de sus propiedades, lo que
nos permitir a enunciar algunos teoremas b asicos sobre la inferibilidad mediante
diferentes tipos de algoritmos de la clase de los lenguajes regulares.
5.1. Red de cocientes de un aut omata nito.
Sea A = Q, , , I, F) un aut omata nito. Como se establece en [12], el
conjunto de aut omatas cocientes de Aest a parcialmente ordenado por la relaci on
tal que A/
1
A/
2
si y s olo si existe una partici on del conjunto de
estados de A/
1
tal que (A/
1
) / = A/
2
, esto es , si A/
2
es un aut omata
cociente de A/
1
. El par A, ) induce adem as una red, llamada Lat(A), cuyo
cero es A y cuyo uno es el aut omata nito determinista mnimo para

.
Es evidente, por la denici on de aut omata cociente, que A/
1
A/
2

L(A/
1
) L(A/
2
). La implicaci on contraria, armada en [12] debido quiz as a
una errata, no es sin embargo cierta. Para demostrarlo considerese el aut oma-
ta A = 0, 1, 2, a , , 0, 2) con = 0, a, 1) , 1, a, 2) . Evidentemente
L(A/
{0,1}
) L(A/
{1,2}
) y sin embargo no es cierto que A/
{0,1}
A/
{1,2}
(Vease la gura 24).
0 1 2 0,1 2 0 1,2
A
A/
{0,1}
A/
{1,2}
0 0
0
0 0
0
Figura 24: Evidentemente, L(A/
{0,1}
) L(A/
{1,2}
), sin embargo no es cierto que
A/
{0,1}
A/
{1,2}
.
La armaci on anterior puede no obstante sustituirse por la siguiente, mas
debil:
Lema 67 L L

A, A

: L(A) = L, L(A

) = L

, A A

.
Demostraci on. Sean A

= Q

, ,

, I

, F

) y A

= Q

, ,

, I

, F

) los
aut omatas nitos deterministas completos mnimos de L y L

respectivamente.
Sea A = Q, , , I, F) tal que Q = Q

, I = I

, F = F

, y
(q

, q

) , a) =

(q

, a)

(q

, a). Entonces evidentemente L(A) = L y adem as


A

= A/ siendo (q

, q

)) = q, q

) , q Q

.
52
1 2 3
4
1 2
1,1 2,2 3,1
4,1 4,2
A

A
0
1
0
1
0
1
0,1
1
0
1
0
0
1
0
1
0
1
1
0
1
0
Figura 25: Siendo L = 0((0 +1)

0 +) y L

= (0 +1)

0, A

y A

son sus respectivos


aut omatas nitos deterministas mnimos. Puesto que L L

construmos a partir de
ellos el aut omata A que reconoce a L y del cual se puede obtener como cociente A

mediante la partici on = {{1, 1, 3, 1, 4, 1}, {2, 2, 4, 2}}.


Vease un ejemplo en la gura 25.
Siguiendo la notaci on de [12] diremos que A/
1
_ A/
2
si existen dos estados
q
1
y q
2
de A/
1
tales que A/
2
= (A/
1
)/
{q1,q2}
. es as la clausura reexiva
y transitiva de _ . La profundidad de un aut omata A

en la red Lat(A) es n
si existen aut omatas A
0
, ..., A
n
tales que A
0
= A, A
n
= A

y para cada entero


i, 0 i < n, A
i
_ A
i+1
. Puesto que A
i
_ A
i+1
implica que el n umero de
estados de A
i+1
es igual al n umero de estados de A
i
menos uno, se cumple que
la profundidad de A

es igual al n umero de estados de A menos el n umero de


estados de A

.
Lema 68 A A

Lat(A

) Lat(A).
Demostraci on. Trivial.
Teorema 69 A

Lat(A) si y solo si existe un homomorsmo h : A A

tal
que A

= h(A).
Demostraci on. Sean A = Q, , , I, F) y A

= Q

, ,

, I

, F

) . Para de-
mostrar la parte sibasta con considerar, siendo A

= A/, la funci on h

que
a cada estado q de A le hace corresponder el estado (q) de A

. h

es evidente-
mente un homomorsmo y la imagen de A es A

.
Para demostrar la parte s olo si consideramos, siendo A

= h(A), la partici on
tal que para cada estado (q) = q

: h(q

) = h(q). Dado que en h(A) el


estado q

es nal o inicial si y s olo si existe q nal o inicial respectivamente


tal que q

= h(q) y q

(q

, a) si y s olo si existen p

, p

Q tales que q


(q

, a), h(p

) = q

, h(p

) = q

tenemos que A

= A/.
Para mas claridad vease un ejemplo en la gura 26.
5.2. Completitud y universalidad estructural.
A continuaci on exponemos una denici on y un teorema extrados de [12] y
adaptados a la denici on de aut omata nito con la que nosotros trabajamos.
53
1 2
3 4
5
1,2
3
4,5
1
2
3
A A

1
0
0
0
0,1
1
0
0,1
0
0
0,1
1
1
0
0,1
0
0,1
0,1
1
1
0
Figura 26: A A

puesto que existe el homomorsmo h

(1) = h

(2) = {1, 2}, h

(3) =
{3}, h

(4) = h

(5) = {4, 5}, y h

(A) = A

. Sin embargo no es cierto que A A

ya que
el unico homomorsmo de A en A

es h

(1) = h

(2) = 1, h

(3) = 2, h

(4) = h

(5) =
3, y h

(A) = A

.
Denici on 70 Un lenguaje nito L es estructuralmente completo respecto a un
aut omata nito A = Q, , , I, F) si L L(A) y existe una aceptaci on de L
por A tal que utiliza cada transici on de A, cada estado de I es utilizado como
estado inicial y cada estado de F es utilizado como estado nal.
Teorema 71 Sea L un lenguaje nito. El aut omata A = Q, , , I, F) pertenece
a Lat(MCA(L)) si y solo si L es estructuralmente completo respecto a A.
Demostraci on. Demostraremos en primer lugar la condici on si. Basta para
ello con considerar el homomorsmo de MCA(L) en A tal que a cada estado
x, y) de MCA(L) le hace corresponder el estado de A accedido tras procesar x
en la aceptaci on de xy.
Simetricamente, para demostrar la condici on solo sipartimos del hecho
de que si A pertenece a Lat(MCA(L)) entonces existe un homomorsmo h :
MCA(L) A tal que A = h(MCA(L)). La aceptaci on de L por A tal que en el
proceso de cada palabra xy el estado accedido tras procesar x es h(x, y)) cumple
las condiciones sucientes para armar que L es estructuralmente completo
respecto a A.
Intuitivamente podra parecer que para todo aut omata nito ha de exis-
tir alg un lenguaje nito estructuralmente completo respecto a el, y de hecho
no sabemos que nadie haya mencionado lo contrario. Sin embargo, aunque eso
es cierto para los aut omatas nitos deterministas aseados, no lo es para los
aut omatas nitos en general, ni siquiera para aquellos con un solo estado ini-
cial, irreducibles y que no contienen estados superuos ni tampoco para los
aut omatas universales de algunos lenguajes:
Lema 72 Existen aut omatas nitos para los que no existe ning un lenguaje es-
tructuralmente completo respecto a ellos.
Demostraci on. Vease la gura 27.
54
X
X
X
X
X
1 2
(A) (B)
0,1
0,2
0,3
1,2
1,3
0
1
2
3
4
0
1
0,1
0
0
1
1
Figura 27: (A) Aut omata nito irreducible, sin estados superuos y con solo un estado
inicial. Los estados marcados pueden ser utilizados como nales unicamente en la
aceptaci on de palabras del conjunto {0, 1, 2, 3}. Dado que este conjunto est a formado
por cuatro palabras mientras que hay cinco estados marcados, es imposible construir
un lenguaje nito en cuya aceptaci on se utilicen todos ellos como nales. (B) Aut omata
universal para el lenguaje 0

+ 1

. El estado 1 solo puede ser utilizado como nal en


la aceptaci on de la palabra y el estado 2 solo puede ser utilizado como inicial en
la aceptaci on de esa misma palabra, por lo que no existe ning un lenguaje en cuya
aceptaci on se utilice 1 como nal y 2 como inicial.
Sin embargo, evidentemente, para todo aut omata nito sin estados in utiles
existe un multilenguaje (colecci on de palabras en la que se admiten repeticiones)
nito estructuralmente completo respecto a el. El estudio de la inferencia de
lenguajes regulares a partir de multilenguajes y su SCA asociado lo dejamos
para un trabajo posterior. Veremos en cambio ahora un lema que nos per-
mitir a mantener razonablemente la generalidad sin salirnos del ambito de los
lenguajes.
Denici on 73 Diremos que un aut omata nito es Linferible si existe alg un
lenguaje estructuralmente completo respecto a el.
Lema 74 Para todo aut omata nito sin estados in utiles ni transiciones super-
uas existe otro equivalente Linferible, obtenido a partir de el mediante la
eliminaci on de algunos estados de los conjuntos de estados iniciales y nales.
Demostraci on. En primer lugar, dado que el aut omata no contiene transiciones
superuas, para cada transici on existe al menos una palabra cuya aceptaci on
pasa inevitablemente por ella. Y en segundo lugar, si no existe una palabra para
cuya aceptaci on sea indispensable que determinado estado sea inicial o nal el
55
estado puede dejar de serlo sin alterar el lenguaje reconocido por el aut omata.
En estas condiciones, para no interferir en la legibilidad de algunos enuncia-
dos, identicaremos cada aut omata nito con el o los subaut omatas Linferibles
maximales del mismo, excepto cuando esta identicaci on pueda afectar a la
validez general de un anunciado.
Vease por ejemplo la gura 28.
X
X
X
X
X
1 2
(A) (B)
0,1
0,2
0,3
1,2
1,3
0
1
2
3
4
0
1
0,1
0
0
1
1
Figura 28: (A) Subaut omata Linferible maximal equivalente al aut omata A de la
gura anterior. Existen un total de cinco, obtenido cada uno de ellos de la supresi on
de uno de los estados marcados del conjunto de estados nales. (B) Subaut omata
Linferible maximal equivalente al aut omata B de la gura anterior. Existen un total
de dos, siendo el otro el resultante de eliminar el estado dos del conjunto de estados
iniciales.
As, teniendo presentes estas consideraciones, enunciamos el siguiente teore-
ma:
Teorema 75 Para todo lenguaje regular L existe un lenguaje nito S tal que
todo aut omata nito irreducible que acepte a L pertenece a Lat(MCA(S)).
Demostraci on. Puesto que cada aut omata irreducible para L es un subaut oma-
ta del aut omata universal para L, el conjunto A
i

iI
formado por todos ellos
es un conjunto nito. Sea para cada i I, S
i
un lenguaje estructuralmente
completo para A
i
. Entonces S =

iI
S
i
es estructuralmente completo respecto a
cada uno de ellos.
Vease un ejemplo en la gura 29.
56
(D) (E) (F)
(A) (B) (C)
1
0,1
0,1
1
1
0,1
1
1
0,1
1
0
1
0
1
0
0
1
1
0,1
1
0,1
0
1
0
0
1
0,1
0,1
1
0,1
Figura 29: En la gura (A) se muestra el aut omata universal U para el lenguaje
formado por todas aquellas palabras de ceros y unos que no terminan en dos o mas
ceros. En las dem as guras se muestran algunos aut omatas irreducibles para el mismo
lenguaje que son, por tanto, subaut omatas de U. Una muestra subestructuralmente
completa para U debe ser estructuralmente completa respecto a cada uno de ellos.
N otese que el que la muestra sea estructuralmente completa para U no garantiza que
lo sea para cada uno de sus subaut omatas. Por ejemplo, {10111, 11011, 0110111} es
estructuralmente completa para U pero no para los aut omatas de las guras (B), (C),
(D), (E) y (F).
Denici on 76 Diremos que un lenguaje nito es subestructuralmente completo
respecto a un aut omata A si lo es respecto a cada uno de sus subaut omatas
irreducibles equivalentes a el.
Teorema 77 Para todo lenguaje regular L existe un lenguaje nito S tal que
todo aut omata nito irreducible que acepte a L pertenece a Lat(MCA(S)) y tal
que cada aut omata irreducible en L que pertenece a Lat(MCA(S)) reconoce L.
Demostraci on. Sea S
1
un lenguaje nito subestructuralmente completo res-
pecto al aut omata universal de L. Sea por otra parte A
i

iJ
el conjunto de
subaut omatas del aut omata universal de L irreducibles en L que reconocen un
lenguaje incluido propiamente en L. Este conjunto es evidentemente nito. Para
cada uno de estos subaut omatas A
i
existe al menos una palabra x
i
de L que
no es aceptada por el. Sea S
2
= x
i

iJ
el lenguaje nito formado por esas
palabras. Sea entonces S = S
1
S
2
.
57
Por el teorema anterior sabemos que todo aut omata nito irreducible que
acepte a L pertenece a Lat(MCA(S)).
Sea por otra parte A un aut omata de Lat(MCA(S)) irreducible en L. Puesto
que L(A) est a includo en L existe un homomorsmo h de A en U, el aut omata
universal para L. Dado que A es irreducible en L el homomorsmo h es inyec-
tivo y por tanto h(A) es isomorfo a A. A es por tanto un subaut omata de U
irreducible respecto a L. Como A acepta todas las palabras de S
2
no puede ser
uno de los subaut omatas irreducibles de U que aceptan un subconjunto propio
de L, y por tanto L(A) = L.
Denici on 78 Llamaremos lenguaje estructuralmente universal de un lenguaje
regular L a cualquier subconjunto S de L tal que para cualquier aut omata nito
A irreducible en L, A Lat(MCA(S)) L(A) = L.
Denici on 79 Llamaremos muestra estructuralmente universal de un lenguaje
regular L a cualquier lenguaje nito estructuralmente universal de L.
Teorema 80 Para toda muestra estructuralmente universal S de un lenguaje
regular L se cumple que todo aut omata nito A irreducible en L tal que S L(A)
reconoce L.
Demostraci on. Puesto que A es irreducible en L es isomorfo a un subaut omata
del aut omata universal para L. Por construcci on, si A reconociera un subcon-
junto propio de L habra al menos una palabra en S que no pertenecera a L(A).
Teorema 81 Sea L un lenguaje regular y sean S
1
y S
2
lenguajes nitos tales
que S
1
S
2
L. Si S
1
es una muestra estructuralmente universal de L entonces
tambien lo es S
2
.
Demostraci on. Trivial.
5.2.1. Aplicaciones a la inferencia de L
3
.
Teorema 82 La clase de los lenguajes regulares es inferible en el lmite me-
diante datos positivos y un or aculo para la inclusi on.
Demostraci on. Basta con considerar cualquier algortmo que pruebe a unir
en un orden cualquiera pares de estados del MCA de la muestra, conservando
como nueva hip otesis el aut omata resultante si este es aceptado por el or aculo.
El proceso termina cuando ya no se pueden fusionar mas estados tras un n umero
de como m aximo n(n 1)/2 intentos de fusi on siendo n el n umero de estados
del MCA de la muestra. Si la muestra es estructuralmente universal para el
lenguaje objetivo se obtendr a como resultado del proceso un aut omata nito
irreducible que lo reconoce.
Si los datos se van proporcionando secuencialmente basta con, por ejemplo,
averiguar si la nueva palabra es aceptada por la hip otesis actual y en caso de
58
que no lo sea, obtener un nuevo aut omata nito a nadiendo a aquel el MCA del
lenguaje formado exclusivamente por la nueva palabra y probando a fusionar
cada uno de los nuevos estados con todos los dem as del aut omata resultante bajo
la supervisi on del or aculo. El proceso requrir a como m aximo mn + n(n 1)/2
intentos de fusi on siendo m el n umero de estados de la hip otesis actual y n la
longitud de la nueva palabra mas uno.
Vease un ejemplo en la gura 30
(A)
(B) (C) (D) (E) (F)
(G) (H)
0
0
0
0
0
0
0 0
0
0
0
0
0
0
0 0
0
0
0
0
Figura 30: En la gura (A) se muestra el aut omata universal U para el lenguaje 00

.
En las guras (B)-(F) se muestran todos los aut omatas irreducibles para el mismo
lenguaje que son, por tanto, subaut omatas de U. La muestra {00000} es subestruc-
turalmente completa para U, pues es estructuralmente completa respecto a cada uno
de ellos. En las guras (G) y (H) tenemos los subaut omatas de U que aceptan un
subconjunto propio de 00

distinto del vaco. La muestra {00, 00000} es estructural-


mente universal para 00

, pues no es aceptada por ninguno de estos ultimos. Cualquier


proceso de mezcla de estados sobre MCA({00, 00000}) guiado por un or aculo para la
inclusi on en 00

teminar a por tanto, cuando no puedan hacerse mas fusiones, en uno


de los aut omatas (A)-(F).
5.3. Semired de cocientes asociada a un par de aut omatas
nitos.
Denici on 83 Dados dos aut omatas nitos A y A

tales que L(A) L(A

) =
llamaremos semired de cocientes asociada a A y A

al conjunto SemiLat(A, A

)
formado por aquellos elementos A

de Lat(A) tales que L(A

) L(A

) = . Por
extensi on llamaremos SemiLat(A, L) al conjunto formado por aquellos elemen-
59
tos A

de Lat(A) tales que L(A

) L = .
Puede verse un ejemplo en la gura 31.
1 2
3 4
1,3 2
4
1 2,3
4
1 2,4
3
1 2
3,4
1,3 2,4 1 2,3,4
A
A
1
A
3
A
2
A
4
A
5
A
6
A A

A
1
A
2
A
3
A
4
A
5
A
6
0
1
0
1
1
0
0
0
1
1
0
1
0
1
0
1
1 0
0
1
1
0
0
1
0
1
0,1
Figura 31: Semired de cocientes asociada a los aut omatas A y A

. BS(A, A

) =
{A5, A6}
Lema 84 L(A) L(A

) = implica que SemiLat(A, A

) forma una semired


junto con el orden .
Demostraci on. Evidentemente A SemiLat(A, A

) por lo que es suciente de-


mostrar que si A
1
, A
2
Lat(A, A

), A
1
A
2
y A
2
SemiLat(A, A

) entonces
A
1
SemiLat(A, A

). Esto se deduce trivialmente de que A


1
A
2
implica que
L(A
1
) L(A
2
) que a su vez implica que L(A
2
)L(A

) = L(A
1
)L(A

) = .
60
Lema 85 A

SemiLat(A, L(A)) L(A

) = L(A).
Demostraci on. A

SemiLat(A, L(A))
A A

L(A

) L(A) =
L(A) L(A

) L(A

) L(A)
L(A

) = L(A).
Denici on 86 Dados dos aut omatas nitos A y A

tales que L(A) L(A

) =
llamaremos borde de la semired de cocientes asociada a A y A

al conjunto
BS(A, A

) formado por aquellos elementos A

de SemiLat(A, A

) tales que
no existe A

SemiLat(A, A

) tal que A

,= A

y A

. Adem as,
para lenguajes ntos cualesquiera S
1
y S
2
tales que S
1
S
2
= llamaremos
BS
MCA
(S
1
, S
2
), BS
PTA
(S
1
, S
2
), etc. a BS(MCA(S
1
), MCA(S
2
)),
BS(PTA(S
1
), PTA(S
2
)),etc.
Lema 87 A
1
A
2
SemiLat(A
2
, A

) SemiLat(A
1
, A

). A
1
A
2

BS(A
2
, A

) BS(A
1
, A

).
Demostraci on. Trivial.
Lema 88 Todo aut omata nito perteneciente a BS(A, L) es un aut omata irre-
ducible en L.
Demostraci on. Se desprende trivialmente de la denici on de BS(A, L).
Lema 89 Todo aut omata nito perteneciente a BS(A, L(A)) es un aut omata
irreducible equivalente a A.
Demostraci on. Es equivalente a A por pertenecer a SemiLat(A, L(A)) y es
irreducible por pertenecer a BS(A, L(A)).
Corolario 90 A es irreducible si y solo si SemiLat(A, L(A)) = BS(A, L(A)) =
A .
Lema 91 Para todo aut omata nito A existe un lenguaje nito L para el que
BS(A, L) est a formado exclusivamente por aut omatas irreducibles equivalentes
a A. Concretamente, BS(A, L) = BS(A, L(A)).
Demostraci on. Consideremos el conjunto A
i
formado por aquellos aut oma-
tas A
i
Lat(A) SemiLat(A, L(A)) tales que existe A

i
SemiLat(A, L(A)),
A

i
_ A
i
, esto es, A
i
se obtiene de A

i
mediante la fusi on de dos de sus estados.
A
i
es un conjunto nito. Adem as, para cada A
i
existe al menos una palabra
x
i
tal que x
i
L(A

i
) = L(A), x
i
/ L(A
i
). Sea L un lenguaje nito formado
por una de estas palabras por cada A
i
. Entonces BS(A, L) = BS(A, L(A)) y
por tanto est a formado exclusivamente por aut omatas irreducibles equivalentes
a A.
Lema 92 Para todo aut omata nito A y todo lenguaje regular L tal que L(A)
L = existe un lenguaje nito S tal que BS(A, L) = BS(A, S).
61
Demostraci on. El razonamiento es el mismo que en el lema anterior.
Teorema 93 Para todo lenguaje regular L existen lenguajes nitos S
1
y S
2
tales que BS
MCA
(S
1
, S
2
) es el conjunto formado exclusivamente por todos los
aut omatas nitos irreducibles que reconocen L.
Demostraci on. Sea S
1
una muestra estructuralmente universal de L. Entonces
para cualquier aut omata nito A irreducible en L, A Lat(MCA(S
1
))
L(A) = L. Esto es, en la red Lat(MCA(S
1
)) est an todos los aut omatas ni-
tos irreducibles que aceptan L y adem as esos son los unicos aut omatas nitos
irreducibles en L que guran en la red. Por tanto BS(MCA(S
1
), L) es el con-
junto formado exclusivamente por todos los aut omatas nitos irreducibles que
reconocen L. Basta ahora con escojer S
2
de forma que BS(MCA(S
1
), S
2
) =
BS(MCA(S
1
), L). La existencia de tal S
2
est a garantizada por el lema ante-
rior.
Teorema 94 Para toda muestra estructuralmente universal S
1
de un lenguaje
regular L existe un lenguaje nito S
2
tal que todo aut omata nito A irreducible
en S
2
que satisface S
1
L(A) reconoce L.
Demostraci on. Se desprende directamente de las propiedades de una muestra
estructuralmente universal y de los resultados anteriores.
Denici on 95 Llamaremos muestra completa universal de un lenguaje regular
L a cualquier par de lenguajes nitos S
1
y S
2
tales que BS
MCA
(S
1
, S
2
) es el
conjunto formado exclusivamente por todos los aut omatas nitos irreducibles
que reconocen L.
Veamos a continuaci on un resultado negativo que en cierta forma limita la
caracterizaci on de los lenguajes regulares mediante pares de lenguajes nitos.
Teorema 96 No es cierto que para cada lenguaje regular L existen lenguajes
nitos S
1
y S
2
tales que para lenguajes nitos cualesquiera S

1
, S

2
, se cumpla
que si S
1
S

1
L y S
2
S

2
L entonces necesariamente BS
MCA
(S

1
, S

2
)
contiene exclusivamente aut omatas nitos que reconocen L.
Demostraci on. Sea por ejemplo L = (aa)

. Supongamos la existencia de
los citados S
1
y S
2
y sea a
2n+1
la palabra de mayor longitud en S
2
. Sea
S

1
= S
1

_
a
2n+2
, a
2n+4
_
. Entonces podemos unir los estados de MCA(S
1
)
correspondientes a

a
2n+2
,
_
y

a
2n+3
, a
_
obteniendo as un aut omata nito
perteneciente a Lat(MCA(S

1
)) e incluido en S
2
que sin embargo acepta la
palabra a
2n+3
que no pertenece a L. Esta palabra ser a aceptada tambien por
cualquiera de sus cocientes por lo que BS
MCA
(S

1
,S
2
) contendr a al menos un
aut omata nito que no reconoce L.
62
5.3.1. Aplicaciones a la inferencia de L
3
.
Veremos a continuaci on que el resultado anterior no plantea restricciones tan
fuertes a la inferencia en el lmite de L
3
como pudiera parecer.
Teorema 97 Dadas una muestra positiva S
+
= x
i

1in
y otra negativa S

de un lenguaje, cualquier algortmo de la forma


A = , , , , )
Desde i = 1 Hasta n
Si x
i
/ L(A)
A = MCA(x
1
, ..., x
i
)
A = A/ para cualquier partici on tal que A/ sea irreducible en S

inere en el lmite L
3
.
Demostraci on. Sea e : N

una biyecci on. Entonces e induce una enu-


meraci on de

. Sea L un lenguaje regular y sea n


e
el menor n umero tal que
las primeras n
e
palabras de L en el orden jado por e forman una muestra
estructuralmente universal S
1
de L. Sea S
2
tal que todo aut omata nito A irre-
ducible en S
2
que satisface S
1
L(A) reconoce L. Entonces, para cualquier
par muestra positiva muestra negativa S
+
, S

) tal que S
1
S
+
y S
2
S

en que las palabras de S


+
esten ordenadas seg un e, el anterior algoritmo pro-
duce como salida un aut omata irreducible para L. Por otra parte, cualquiera
que sea el orden que jemos entre las palabras de nuestra muestra nita, ese
orden puede ser considerado como el comienzo de alguna enumeraci on, y o bien
incluye ya una muestra estructuralmente universal, o bien la incluir a eventual-
mente seg un se vayan a nadiendo a ella nuevas palabras independientemente del
orden en que estas se a nadan. En el momento en que la muestra positiva es ya es-
tructuralmente universal los datos positivos que se suministren posteriormente
no jugar an ning un papel en el proceso, por lo que no afectar an a la muestra
negativa necesaria para garantizar la inferencia del lenguaje objetivo.
La operaci on A = A/ para cualquier partici on tal que A/ sea irre-
ducible en S

requrir a como m aximo n(n1)/2 intentos de fusi on siendo n el


n umero de estados del MCA(x
1
, ..., x
i
).
Comentario 98 Jugando con cierta imprecisi on en el concepto de inferencia
en el lmite podemos enunciar una proposici on a un m as general: Supongamos
que en el procedimiento anterior los datos positivos se procesan en paquetes de
p palabras. El argumento utilizado anteriormente para n palabras sirve igual-
mente para n paquetes de p palabras. Si nuestra muestra positiva consiste en un
n umero cualquiera p de palabras, el proceso de obtenci on de un aut omata nito
consistente e irreducible en el complementario de la muestra negativa mediante
fusi on de estados en un orden completamente aleatorio, puede ser visto como
el primer paso de un algoritmo que en el lmite inere la clase de los lenguajes
63
regulares. Despues de todo, en cualquier caso pr actico siempre dispondremos de
un n umero nito de muestras, y el hecho de que el algoritmo utilizado inera
en el lmite la clase L
3
no garantiza en absoluto que a partir de ellas podamos
obtener un aut omata para el lenguaje objetivo.
Veamos ahora una versi on semiincremental del teorema anterior. Comen-
zaremos estableciendo el siguiente lema:
Lema 99 Sea S
+
, S

) una muestra completa universal de un lenguaje L y sea


S
1
S
+
. Entonces si MCA(S
1
)/ es irreducible en S

y L(MCA(S
1
)/) S
+
se cumple que L(MCA(S
1
)/) = L.
Demostraci on. Dado que S
+
, S

) es una muestra completa universal de L,


basta con demostrar que MCA(S
1
)/ Lat(MCA(S
+
)). Para ello es suciente
con observar que podemos obtener MCA(S
1
)/ a partir de MCA(S
+
) de la
siguiente manera: Primero construmos MCA(S
1
)/ utilizando el subaut omata
MCA(S
1
) de MCA(S
+
); por ultimo, dado que L(MCA(S
1
)/) S
+
, para
cada palabra xy de S
+
S
1
existe un camino de aceptaci on en MCA(S
1
)/ por
lo que podemos unir el estado x, y) de MCA(S
+
) con el estado alcanzado en la
aceptaci on de xy tras procesar x, obteniendo como resultado nal el aut omata
MCA(S
1
)/.
Ahora estamos ya en condiciones de demostrar el siguiente teorema:
Teorema 100 Dadas una muestra positiva S
+
= x
i

1in
y otra negativa S

de un lenguaje, cualquier algortmo de la forma


A = , , , , )
Desde i = 1 Hasta n
Si x
i
/ L(A)
A = A MCA(x
i
)
A = A/ para cualquier partici on tal que A/ sea irreducible en S

inere en el lmite L
3
.
Demostraci on. El razonamiento es exactamente el mismo que en el teorema
anterior, exceptuando el hecho de que s olo se utilizan en la construcci on del
aut omata aquellas palabras que no son reconocidas por la hip otesis actual. El
lema precedente garantiza la convergencia.
Vease un ejemplo de la traza de un algoritmo de este tipo en la gura 32.
64
1 2 3 4 5 12 3 4 5 125
3
4
1
2
3
4 5 6 7
14
2
3
5 6 7
14
25
3
6 7
14
256
3
7
14
256
37
A
1
A
2
A
3
B
1
B
2
B
3
B
4
B
5
0 0 0 1
0
0 0 1
0
0
0
1
0
0
0
1
1 1 0
0
0
0
1
1
1 0
0
0,1
0
1
1 0
0
0,1
1
0
1
0
0
0,1
1
0
1
Figura 32: Proceso de inferencia a partir de las muestras M+ =
{0001, 001, 00, 0, 110, 11010} y M = {1, 01, 11, 011, 100}. En cada caso se toman los
estados en orden y se prueba a unir cada uno de ellos con cada uno de los anteriores,
tambien en orden. A1: MCA({0001}). A2: Unimos el estado 2 con el 1 sin que se
produzca incompatibilidad con M. Probamos a unir el 3 con el 1 y el 4 con el 1 y
con el 3, pero en todos los casos se producen incompatibilidades. A3: Unimos el 5 con
el 1. Pasamos a la siguiente palabra de la muestra, 001, pero como es aceptada por
la hip otesis actual la ignoramos. Lo mismo ocurre con 00 y 0. Llegamos a 110 que
no es aceptada. B1: Unimos MCA({110}) a la hip otesis actual. B2: Unimos 4 con 1.
B3: Tras rechazar la uni on de 5 y 1, unimos 5 con 2. B4: Tras rechazar la uni on de
6 y 1, unimos 6 con 2. B5: Tras rechazar la uni on de 7 con 1 y con 2, unimos 7 con
3. La ultima palabra de la muestra es aceptada por la hip otesis actual, por lo que la
ignoramos. B5 es un aut omata irreducible compatible con la muestra.
65
6. Inferencia mediante subaut omatas asociados
a palabras.
Describimos en esta secci on una nueva familia de algoritmos para la infe-
rencia de lenguajes regulares. Cada algoritmo de esta familia, teniendo como
entrada una muestra S
+
, S

) , calcula para cada palabra x de S


+
al menos
un aut omata nito que acepta a x y es consistente con S

. Este aut omata


es adem as irreducible en S

y por tanto irreducible. La salida del algoritmo


es el aut omata formado por la colecci on de aut omatas nitos asociados a cada
palabra de S
+
. Cada algoritmo de la familia converge en el lmite a un aut omata
para el lenguaje objetivo.
Presentamos tambien los experimentos realizados para comparar algunos
algoritmos de esta familia con otros algoritmos bien conocidos para la misma
tarea. Los resultados obtenidos por nuestros algoritmos son en general mejores,
tanto en tasa de error como en el tama no de la salida. Adem as, la estructura
particular de estos algoritmos resulta en una complejidad menor y por tanto
tiempos de ejecuci on sustancialmente menores a los de los algoritmos cl asicos.
6.1. Subaut omatas asociados a una palabra en un lengua-
je.
Comenzaremos recordando algunos conceptos ya descritos en secciones an-
teriores que son de especial relevancia en esta:
Un subaut omata de un automata nito A = Q, , , I, F) es cualquier
aut omata nito A

= Q

, ,

, I

, F

) donde Q

Q, I

I Q

, F

F Q

. Evidentemente si A

es un subaut omata de A, L(A

) L(A).
Evidentemente tambien, cualquier aut omata nito tiene un n umero nito de
subaut omatas diferentes. A es irreducible en un lenguaje L si y solo si L(A) L
y para toda partici on de Q L(A/) L ,= . A es irreducible si y solo si es
irreducible en L(A).
Recordaremos tambien un par de proposiciones ya vistas de las que haremos
uso en esta secci on:
Un aut omata nito es irreducible si y s olo si es irreducible en alg un lenguaje
y, en particular, si y s olo si es irreducible en el complementario de alg un lenguaje
nito. Por ultimo, todo aut omata nito irreducible en un lenguaje L es isomorfo
a un subaut omata del aut omata universal para L.
Pasamos ahora a denir los dem as conceptos b asicos de esta secci on.
Denici on 101 Dado un aut omata nito A llamaremos descomposici on de A
a cualquier colecci on A
i
)
iI
de subaut omatas de A tal que L(A) =
iI
L(A
i
).
Denici on 102 Dada una palabra x = a
1
a
2
...a
n
, n 0, donde los a
i
son smbo-
los, denotaremos mediante A
x
al aut omata nito determinista mnimo sin es-
tados in utiles para el lenguaje x, esto es, al aut omata Q, , , I, F) donde,
siendo Q = y, z) : yz = x, la funci on de transici on es tal que para yaz = x,
(y, az) , a) = ya, z) y adem as I = , x), F = x, ).
66
Denici on. Sea L un lenguaje sobre un alfabeto y sea x una palabra de
L. Llamaremos subaut omata asociado a x en L a cualquier aut omata nito A
irreducible en L obtenido a partir de A
x
mediante una secuencia cualquiera de
fusiones de estados.
Es evidente que para cualquier palabra x y cualquier lenguaje L el n umero
de subaut omatas asociados a x en L es nito, as como que para cada aut omata
A asociado a x en L, x L(A). Vease un ejemplo en la gura 33.
1 2 3 4 5 6 7
123 4 5 67 12 34 5 67
123 4 5 6 7 1267
34
5
(A)
(B) (C)
(D) (E)
0 1 1 0 1 0
0,1
1 0 1
0 0
1
1
0 1
0
0,1
1 0 1 0
0
1
1
0
1
Figura 33: Siendo L = (0+1)

101(0+1)

y x = 011010 vemos: (A) Aut omata Ax. (B)


y (C) Subaut omatas asociados a x en L. (D) Este aut omata no es un subaut omata
asociado a x en L pues no es irreducible en L. (E) Este aut omata tampoco es un
subaut omata asociado a x en L pues el lenguaje que acepta no est a includo en L.
Lema 103 Sea L un lenguaje regular y sea x L. Cualquier subaut omata aso-
ciado a x en L puede obtenerse conociendo un n umero nito de palabras de
L.
Demostraci on. Se deduce directamente del hecho de que un aut omata nito
es irreducible si y solo si es irreducible en el complementario de alg un lenguaje
nito. Adem as, sea u, v, w) una factorizaci on de x, esto es, x = uvw. Si los
estados de A
x
u, vw) y uv, w) no pueden ser fusionados basta con conocer
cualquier palabra de uv

wL para evitar su fusi on. Por tanto el n umero mnimo


de palabras suciente para garantizar la obtenci on de un subaut omata asociado
a x en L esta acotado por [x[
2
.
Teorema 104 Para todo lenguaje regular L existe un subconjunto nito M tal
que L es la uni on de los lenguajes reconocidos por los subaut omatas asociados
a las palabras de M en L.
67
Demostraci on. La existencia del subconjunto M est a garantizada por el hecho
de que cada palabra x de L es aceptada por cualquier subaut omata asociado a
x en L. La nitud de M se deduce de que cada subaut omata asociado a una
palabra x en L es irreducible en L y por tanto isomorfo a alg un subaut omata
de U, el aut omata universal de L, junto con el hecho de que el n umero de
subaut omatas de U es nito.
Vease un ejemplo en la gura 34.
(A) (B)
0,1
0 0
0,1 0,1
1 1
0,1
Figura 34: Siendo L = (0 + 1)

(00 + 11)(0 + 1)

y M = {010001, 011101} se cumple


que L es la uni on de los lenguajes reconocidos por los subaut omatas asociados a las
palabras de M en L, ya que entre los asociados a 010001 est a (A) y entre los asociados
a 011101 est a (B).
6.2. Una familia de algoritmos para la inferencia de L
3
mediante aut omatas nitos.
6.2.1. La familia WASRI.
Presentamos ahora una familia (Word Associated Subautomata Regular In-
ference) de algoritmos basados en los conceptos anteriormente expuestos. Cada
uno de los miembros de WASRI inere en el lmite la clase de los lenguajes
regulares.
Esta familia se corresponde con el sencillo esquema que describimos a con-
tinuaci on, siendo L el lenguaje a inferir.
Sea A = Q, , , I, F) con Q = = I = F =
Mientras x L L(A)
Obtengase al menos un aut omata nito asociado a x en L
Para cada A

= Q

, ,

, I

, F

) obtenido
A = Q Q

, ,

, I I

, F F

).
Las uniones indicadas deben suponerse uniones disjuntas.
Teorema 105 Cualquier algoritmo de la familia WASRI inere en el lmite la
clase de los lenguajes regulares.
68
Demostraci on. Sabemos por una parte que cada lenguaje regular L es la uni on
de los lenguajes reconocidos por los subaut omatas asociados en L a las pal-
abras de un subconjunto nito de L, y por otra, que el n umero de palabras
pertenecientes a L que necesitamos conocer para obtener esos aut omatas es
tambien nito. Estos dos hechos garantizan la convergencia del proceso, pues
despues de un tiempo nito esas palabras aparecer an y L ser a identicado.
Los distintos algoritmos de la familia WASRI se diferencian entre s en con-
ceptos tales como:
El n umero de subaut omatas inferidos para cada palabra.
El orden a seguir en el proceso de fusi on de estados para la obtenci on de
cada subaut omata.
El criterio de selecci on nal entre los subaut omatas inferidos.
etc.
Veamos a continuaci on la descripci on de uno de los miembros mas b asicos
de la familia.
6.2.2. WASRI1.
Sea S = S
+
, S

) una muestra de un lenguaje, donde S


+
= x
1
, ..., x
n
.
El algoritmo WASRI1 obtiene un aut omata nito A compatible con S de la
siguiente manera:
Sea A = Q, , , I, F) con Q = = I = F =
Desde i = 1 hasta i = n
Si x
i
L(A)
A
i
= , , , , )
Si x
i
/ L(A)
Sea A
i
= A
xi
con Q
i
= q
i1
, ..., q
im

Desde j = 2 hasta j = m
Desde k = 1 hasta k = j 1
Si q
ik
Q
i
Si L(A
i
/
{q
ik
,qij}
) S

=
A
i
= A
i
/
{q
ik
,qij }
)
A = A A
i
A = , , , , )
Desde i = n hasta i = 1
Si (L(A
i
) S
+
) L(A) ,=
A = A A
i
69
Por A = A A
i
queremos signicar que siendo A = Q, , , I, F) y A
i
=
Q
i
, ,
i
, I
i
, F
i
) el aut omata Apasa a ser Q Q
i
, ,
i
, I I
i
, F F
i
) donde,
una vez m as, las uniones se presuponen disjuntas.
6.3. Dos ejemplos.
Presentamos en este apartado dos ejemplos de ejecuci on encaminados a faci-
litar la comprensi on de WASRI1. El primero describe la mayora de situaciones
que pueden producirse, esto es, adem as de la mezcla de estados reeja tambien
el hecho de que algunas palabras de la entrada pueden ser reconocidas por el
aut omata hip otesis actual y que algunos de los subaut omatas obtenidos puede
ser eliminado posteriormente si el aut omata resultante acepta todas las palabras
de la muestra positiva. El segundo ejemplo muestra que este algoritmo puede
tratar algunas situaciones de una forma mucho m as eciente que el resto de
algoritmos con los que ha sido comparado.
6.3.1. Ejemplo de ejecuci on.
Supongamos que la entrada a WASRI1 es S
+
= 0, 000011, 001, 0101010
y S

= 01000010.
1 2 3 4 5 6 7 8
1 5 6 7 8 1 5 6 8
1 5 6
(A)
(B) (C)
(D)
0 1 0 1 0 1 0
0,1
1 0 1 0
0,1
1 0
1
0
0,1
1
0
0
1
Figura 35: Mezclas sucesivas realizadas por el algoritmo WASRI1 durante el pro-
ceso de la palabra 0101010 siendo su entrada S+ = {0101010, 0, 001, 000011} y
S = {01000010}.
Por ser m as ilustrativo, comenzaremos por mostrar el proceso de la palabra
0101010 como si fuera la primera de la muestra. El aut omata A
0101010
se muestra
en la gura 35(A). Los estados 2,3 y 4 pueden unirse con el estado 1 ya que
el aut omata resultante no acepta la muestra negativa. El resultado de estas
primeras uniones est a en la gura 35(B). Siguiendo el mismo orden, los si-
guientes estados que pueden ser mezclados son 6 y 7, pues las posibles uniones
70
previas produciran un aut omata que acepta la muestra negativa. El aut omata
resultante es el de la gura 35(C). Por ultimo, la mezcla de los estados 5 y 8
produce el aut omata de la gura 35(D), irreducible en S

.
(A) (B) (C)
0
0,1
1
0,1
1
0
0
1
Figura 36: Aut omata nito producido por WASRI1 para la entrada S+ =
{0101010, 0, 001, 000011} y S = {01000010} antes del borrado del subaut omata su-
peruo (B).
Consideremos ahora la muestra completa S
+
= 0, 000011, 001, 0101010. El
aut omata obtenido para la primera palabra, 0, se muestra en la gura 36(A).
A continuaci on la palabra 000011 produce como salida el aut omata de la gura
36(B). La palabra 001 no produce salida, pues es aceptada por la hip otesis
actual, el aut omata formado por los subaut omatas de la gura 36(A)y(B). A
continuaci on, la palabra 0101010 produce como salida el aut omata de la gura
36(C).
Por ultimo, como el aut omata resultante del borrado del subaut omata cor-
respondiente a la palabra 000011 todava reconoce todas las palabras de S
+
, el
algoritmo WASRI1 produce como resultado nal el aut omata formado por los
subaut omatas (A) y (C) de la gura 36.
6.3.2. Un ejemplo bonito.
Supongamos que L = x 0

: [x[ es m ultiplo de 2, 3 o 5 es el lenguaje


objetivo. El aut omata nito determinista mnimo para L tiene el mismo n umero
de estados que su RFSA can onico (30 estados). Si la entrada para WASRI1 es
S
+
= 0
2
, 0
3
, 0
5
y S

= 0, 0
11
, produce como salida el aut omata descrito en
la gura 37, que reconoce L, mientras que algoritmos como RPNI o DeLeTe2
est an lejos de la convergencia cuando procesan esa entrada.
0
0
0
0
0
0
0
0
0
0
Figura 37: Aut omata nito producido por WASRI1 para la entrada S+ = {0
2
, 0
3
, 0
5
}
y S = {0, 0
11
}.
71
En el captulo dedicado a la experimentaci on compararemos el compor-
tamiento de algunos algoritmos de la familia WASRI con el de otros algo-
ritmos cl asicos entre los que se encuentran aquellos reconocidos como los que
mejores resultados ofrecen. Veremos que los resultados obtenidos por WASRI
son en general mejores tanto en tasa de error como en el tama no de la sali-
da. Adem as, el hecho de que WASRI procese por separado cada palabra de
la muestra positiva disminuye en buena medida su complejidad temporal, lo
que le permite procesar en un tiempo razonable entradas que para los dem as
algoritmos suponen ejecuciones excesivamente largas.
72
7. Experimentaci on.
7.1. Las muestras.
El objetivo de esta secci on no es proporcionar algoritmos de inferencia re-
nados para su comparaci on con otros similares ni, mucho menos, algoritmos
dise nados para su aplicaci on a alg un problema en particular. Se persigue unica-
mente mostrar a grandes rasgos que algoritmos basados en los esquemas de-
scritos en los captulos anteriores se comportan en el caso general de forma
similar, algo mejor en algunos casos y algo peor en otros, que aquellos algo-
ritmos basados en esquemas tradicionales. Utilizaremos como referencia para la
comparaci on dos algoritmos cl asicos, el RPNI y el DeLeTe2, que ineren respec-
tivamente aut omatas nitos deterministas y RFSAs. Este ultimo ha demostrado
comportarse mejor que los dem as algoritmos cl asicos de inferencia cuando los
lenguajes objetivo vienen dados por un proceso de generaci on psudoaleatoria de
aut omatas nitos o expresiones regulares, mientras que el RPNI y sus deriva-
dos le superan si la fuente de lenguajes objetivo es un proceso de generaci on
pseudoaleatoria de aut omatas nitos deterministas.
Las muestras de aprendizaje y test utilizadas en la primera fase de la ex-
perimentaci on fueron extradas, y est an todava disponibles, de la p agina web
http : //www.grappa.univlille3.fr/ lemay/de Aurelien Lemay, uno de los
autores de DeLeTe2. Est an divididas en dos bloques en funci on de la fuente de
las muestras: Las denominadas er n provienen de expresiones regulares mien-
tras que las denominadas nfa n provienen de aut omatas nitos con un solo
estado inicial. En ambos casos el valor numerico de n (50, 100, 150, o 200) in-
dica el n umero de palabras en la muestra de aprendizaje. Cada uno de estos
ocho experimentos consiste en un total de 30 lenguajes diferentes a ser apren-
didos y utiliza como test una muestra de mil palabras etiquetadas en funci on
de su pertenencia o no al lenguaje objetivo. El exito del proceso de aprendizaje
en cada uno de los ocho experimentos se mide en funci on de la tasa media de
reconocimiento, esto es la media para los 30 lenguajes de que consta cada ex-
perimento de los porcentajes de coincidencia en la clasicaci on de las palabras
de la muestra de test realizada por el aut omata obtenido como resultado del
mismo.
Sin embargo, estos experimentos presentan ciertas caractersticas que no
son del todo de nuestro gusto: Tanto las muestras de aprendizaje como las de
test contienen palabras repetidas, las muestras de aprendizaje y las de test no
son disjuntas entre si, los aut omatas objetivo son diferentes para cada tama no
de las muestras de aprendizaje, por lo que estas no son incrementales, lo cual
diculta la observaci on de la evoluci on en el comportamiento del algoritmo de
aprendizaje respecto al n umero de muestras, etc. Decidimos por ello utilizar
en una segunda etapa un sistema de experimentaci on ligeramente diferente:
Para cada uno de los 240 lenguajes del experimento anterior (120 procedentes
de expresiones regulares y 120 de aut omatas nitos) obtuvimos muestras de
aprendizaje de tama nos 100, 200, 300, 400 y 500, cada una de las cuales contiene
a la anterior, y muestras de test de tama no 1000 disjuntas de las de aprendizaje.
73
Denominamos a estas muestras ER n y NFA n donde una vez mas ER y NFA
indican la procedencia y n su tama no.
7.2. WASRI2.
En la experimentaci on hemos utilizados dos algoritmos diferentes, uno por
cada uno de los esquemas descritos.
El primero de ellos, correspondiente al esquema WASRI, al que denominare-
mos WASRI2, obtiene para cada muestra dos aut omatas nitos y nalmente
elige aquel de los dos que tiene menos estados. El primero de estos aut omatas
se construye aplicando el esquema WASRI en orden can onico a cada palabra
que no es aceptada por la hip otesis actual, esto es, para la palabra x
i
el prejo
corresponde al estado q
i0
mientras que al prejo x
i
le corresponde el estado
q
i
|x
i
|
y se prueba a unir cada estado con cada uno de los anteriores en orden
de ndice menor a mayor hasta que se encuentra una fusi on compatible con la
muestra. Por ultimo se eliminan aquellos subaut omatas que resultan superuos
para la aceptaci on de toda la muestra positva.
El segundo aut omata se obtiene en forma similar, salvo que en este caso
los estados de cada subaut omata se ordenan en orden inverso, de forma que
al prejo corresponde al estado q
i
|x
i
|
(que pese a su nombre ser a el inicial)
mientras que al prejo x
i
le corresponde el estado q
i0
(que ser a nal).
Evidentemente el esquema permitira la obtenci on de no solo estos dos
aut omatas, sino tambien la de muchos otros mediante cualquier otra ordenaci on
de los estados o la fusi on de pares de estados seleccionados de forma aleatoria,
etc. En cualquier caso el proceso nalizara con la selecci on entre todas las
hip otesis obtenidas de aquella con menor tama no.
7.3. LPEF.
El segundo algoritmo, correspondiente al esquema general de fusi on de esta-
dos, al que nos referiremos como LPEF (Lista de Pares de Estados Fusionables)
es mas complejo. Al igual que en el caso anterior se construye un subaut omata
para cada palabra no aceptada por la hip otesis actual. La construcci on del sub-
aut omata se realiza de la siguiente manera: Para cada par de estados fusionables
se calcula el n umero de pares de estados fusionables que contiene el aut omata
resultante de su fusi on y se efect ua la fusi on del par de estados para los que
ese valor es maximal. El proceso contin ua mientras quedan pares de estados
fusionables. Una vez obtenido el subaut omata el proceso contin ua intentando
unir, en orden secuencial, cada estado del nuevo subaut omata con cada estado
del aut omata que constitua la hip otesis anterior. Por ultimo se eliminan los
estados superuos del aut omata resultante obteniendose as la nueva hip otesis.
7.4. Resultados
Los resultados de los experimentos realizados se muestran en la siguiente
tabla:
74
RPNI DeLeTe2 WASRI2 LPEF
Tasa Rec. Tam. Tasa Rec. Tam. Tasa Rec. Tam. Tasa Rec. Tam.
er 50 76.4 9.7 81.3 32.4 89.2 15.9 92.0 7.5
er 100 80.6 14.2 91.4 30.7 93.0 25.4 93.5 12.1
er 150 84.5 15.4 92.0 61.0 94.9 25.7 94.5 16.2
er 200 91.1 13.3 95.7 47.7 95.8 35.5 97.4 11.3
nfa 50 64.8 14.3 69.3 71.3 74.8 39.3 71.5 22.2
nfa 100 68.3 21.8 74.4 149.1 76.5 79.8 75.3 42.2
nfa 150 71.2 28.1 76.7 218.3 77.3 121.1 76.7 57.2
nfa 200 71.7 33.4 78.9 271.3 81.2 148.1 78.6 60.4
ER 100 83.4 12.4 91.7 30.2 93.4 25.3 94.4 10.7
ER 200 93.9 11.6 97.0 24.5 95.7 33.4 97.4 11.2
ER 300 96.3 11.2 97.8 31.4 96.2 47.0 98.1 12.7
ER 400 97.5 11.0 98.5 27.4 97.1 51.3 98.8 11.6
ER 500 98.1 11.0 98.8 29.9 97.6 48.6 99.0 11.8
NFA 100 66.5 20.3 74.0 98.8 74.7 82.9 74.3 37.0
NFA 200 69.3 32.4 77.8 220.9 77.1 170.4 77.5 64.7
NFA 300 72.9 40.9 80.9 322.1 79.7 267.2 79.7 90.1
NFA 400 74.6 49.8 82.7 421.3 81.1 350.1 81.3 108.1
NFA 500 76.8 55.9 84.3 512.6 83.5 431.2 83.6 125.8
Las columnas Tasa Rec. indican el tanto por ciento medio de acierto en los
diferentes casos que componen cada experimento, mientras que las columnas
Tam. indican el valor medio en el n umero de estados. Puede apreciarse que los
resultados obtenidos por WASRI2 y LPEF compiten razonablemente con los
de DeLeTe2 y superan ampliamente a los de RPNI, aunque, como ya hemos
dicho, esto ultimo no es as cuando los lenguajes objetivo se derivan de la ob-
tenci on de aut omatas nitos deterministas mediante metodos pseudoaleatorios.
En cualquier caso, parece razonable esperar que algoritmos mas sosticados
derivados de estos esquemas puedan competir en ciertas tareas con los utiliza-
dos actualmente.
75
8. Conclusi on.
Comenzaremos este apartado enumerando los resultados de este trabajo que
consideramos mas relevantes y lo nalizaremos describiendo algunos de los pro-
blemas que quedan abiertos para futuros trabajos.
Entre los resultados obtenidos destacamos los siguientes:
Se ha introducido el concepto de irreducibilidad relativa, denida de manera
que un aut omata nito A es irreducible en un lenguaje L si y solo si L(A) L
y la fusi on de dos estados cualesquiera de A da lugar a un aut omata A

tal
que L(A

) L. Se ha demostrado que, siendo U el aut omata universal de L, el


aut omata A es irreducible en L si y s olo si existe alg un homomorsmo de A en U
y, adem as, todo homomorsmo de A en U es inyectivo. De aqu se desprende que
un aut omata nito A es irreducible (en L(A)) si y solo todo homomorsmo de
A sobre el aut omata universal para L(A) es inyectivo y que por tanto el tama no
m aximo para cualquier aut omata nito irreducible est a acotado por 2
n
siendo
n el n umero de estados del aut omata nito determinista mnimo equivalente a
A.
Se ha denido muestra estructuralmente universal de un lenguaje regular L
como cualquier muestra positiva S de L tal que un aut omata es un aut omata
irreducible para L si y solo si es un aut omata cociente irreducible en L del acep-
tor can onico maximal de S. Se ha demostrado que para todo lenguaje regular
existe una muestra estructuralmente universal y que si S es una muestra estruc-
turalmente universal para L y S S

L entonces tambien lo es S

. A partir
de este resultado se ha descrito un esquema de inferencia incremental mediante
datos positivos y un or aculo para la inclusi on que aprende en el lmite la clase
de los lenguajes regulares representados mediante aut omatas nitos.
As mismo se ha denido muestra completa universal de un lenguaje regular
L como cualquier muestra S
1
, S
2
) de L tal que BS
MCA
(S
1
, S
2
) es el conjunto
formado exclusivamente por todos los aut omatas irreducibles que reconocen L,
esto es, un aut omata irreducible reconoce L si y solo si es un aut omata cociente
del aceptor can onico maximal de S
1
irreducible en el complementario de S
2
. De
este resultado se deduce que cualquier proceso de fusi on de estados en el aceptor
maximal can onico de una muestra positiva, compatible con una muestra nega-
tiva y que respete ciertos principios bastante debiles, es de hecho, un sistema
para la inferencia en el lmite de la clase de los lenguajes regulares mediante
representaci on no determinista. Bas andonos en este esquema hemos desarrolla-
do algunos algortmos sencillos que compiten con exito con los algoritmos de
referencia en la actualidad.
Por ultimo, se ha denido subaut omata asociado a una palabra x en el
lenguaje L como cualquier aut omata nito irreducible en L obtenido como co-
ciente del aceptor can onico maximal de x y se ha demostrado que para todo
lenguaje regular L existe una muestra nita S tal que L es la uni on de los
lenguajes reconocidos por los subaut omatas asociados a las palabras de M en
L. A partir de este resultado se ha descrito un esquema para la inferencia en
el lmite mediante representaci on no determinista de la clase de los lenguajes
regulares y se han implementado algoritmos que siguen este esquema con la
76
particularidad de que su complejidad depende solo linealmente del n umero de
palabras de la muestra y cuadr aticamente de la longitud de cada una de las
mismas, lo que permite utilizar estos algoritmos en tareas que por su tama no
seran inabordables para otros algoritmos de mayor complejidad. Adem as se ha
comparado satisfactoriamente el comportamiento de alguno de estos algoritmos
con el de otros algoritmos para la misma tarea, particularmente en el caso en
que el lenguaje objetivo viene representado por expresiones regulares generadas
pseudoaleatoriamente.
En cuanto a futuras lneas de ampliaci on de este trabajo mencionaremos las
siguientes: Desarrollo de algortmos ecientes para la inferencia tanto de la clase
de los lenguajes regulares como de algunas de sus subclases mas signicativas,
estudio de algunos de los eursticos ya existentes para estas tareas para, a la luz
de estos resultados, averiguar si son realmente algoritmos o si pueden llegar a
serlo mediante la introducci on de peque nas modicaciones, el estudio, similar al
efectuado para la irreducibilidad y la concisi on, de otras propiedades deseables
en los aut omatas nitos, como por ejemplo la primalidad, etc.
77
Referencias
[1] A. Arnold, A. Dicky and M. Nivat. A note about minimal non-deterministic
automata. Bull. EATCS 47, pp 166-169, 1992.
[2] G. I.

Alvarez, J. Ruiz, A. Cano and P. Garca. Non deterministic regular
positive negative inference NRPNI. Proc. of the XXXI Conferencia lati-
noamericana de inform aatica, pp 239-249, 2005.
[3] J. A. Brzozowski. Canonical regular expressions and minimal state graphs
for denite events. Mathematical theory of automata, MRI symposia series
12, pp 520-561, 1962.
[4] C. Carrez. On the minimization of non-deterministic automaton. Labora-
toire de calcul de la faculte des sciences de luniversite de Lille, 1970.
[5] J. M. Champarnaud and F. Coulon. NFA Reduction algorithms by mean
of regular inequalities. Theoretical computer science 327, pp 241-253, 2004.
[6] F. Coste and D. Fredouille. Unambiguous automata inference by means of
state-merging methods. ECML 2003.
[7] J. H. Conway. Regular algebra and nite machines. Chapman and Hall,
1971.
[8] C. C ampeanu, N. S antean and S. Yu. Mergible states in large NFA. Theo-
retical computer science 330, pp 23-34, 2005.
[9] F. Denis, A. Lemay and A. Terlutte. Learning regular languages using
nondeterministic nite automata. ICGI 2000, LNAI 1891, pp 39-50, 2000.
[10] F. Denis, A. Lemay and A. Terlutte. Residual nite state automata. STACS
2001, LNAI 2010, pp 144-157, 2001.
[11] F. Denis, A. Lemay and A. Terlutte. Learning regular languages using
RFSAs. Theoretical computer science 313, pp 267-294, 2004.
[12] P. Dupont, L. Miclet and E. Vidal. What is the search space of the regular
inference?. ICGI 1994, LNCS 862, pp 25-37, 1994.
[13] J. A. Feldman. Some decidability results on grammatical inference and
complexity. Information and control 20, pp 244-262, 1972.
[14] E. M. Gold. Language identication in the limit. Information and control
37, pp 447-474, 1967.
[15] E. M. Gold. Complexity of automaton identication from given data. In-
formation and control 37, pp 302-320, 1978.
[16] P. Garcia and M. V azquez de Parga. A note about mergible states in large
NFA. Bull. of the EATCS 87, pp 181-184, 2005.
78
[17] M. A. Harrison. Introduction to formal language theory. Addison-Wesley,
1978.
[18] C. de la Higuera. Characteristic sets for polynomial grammatical inference.
Machine Learning 27, pp 125-137, 1997.
[19] J. E. Hopcroft and J. D. Ullman. Introduction to automata theory, lan-
guages and computation. Addison-Wesley, 1979.
[20] L. Ilie, G. Navarro and S. Yu. On NFA reductions. LNCS 3113, pp 112-124,
2004.
[21] L. Ilie and S. Yu. Algorithms for computing small NFAs. LNCS 2420, pp
328-340, 2002.
[22] L. Ilie and S. Yu. Reducing NFAs by invariant equivalences. Theoretical
computer science 306, pp 373-390, 2003.
[23] T. Kameda and P. Weiner. On the state minimalization of nondeterministic
nite automata. IEEE transactions on computers, vol C-19, numb 7, pp
617-627, 1970.
[24] K. J. Lang. Random DFAs can be aproximately learned from sparse uni-
form examples. Proc. of the fth annual ACM workshop on computational
learning theory, pp 45-52, 1992.
[25] K. J. Lang, B. A. Pearlmutter and R. A. Price. Results of the Abbadingo
one DFA learning competition and a new evidence-driven state merging
algorithm. ICGI 98, LNAI 1433, pp 1-12, 1998.
[26] S. Lombardy and J. Sakarovitch. On the star height of rational languages.
A new presentation for two old results. Proc. of Words, languages and
combinatorics III. World scientic, pp 266-285, 2003.
[27] O. Matz and A. Pottho. Computing small nondeterministic nite automa-
ta. BRICS notes series, May 95, pp 74-78, 1995.
[28] J. Oncina and P. Garca. Inferring regular languages in polynomial update
time. Pattern recognition and image analysis, pp 49-61, 1992.
[29] L. Pol ak. Syntactic semiring and universal automaton. Proc. of Develop-
ments in language theory, LNCS 2710, pp 411-422, 2003.
[30] L. Pol ak. Minimalizations of NFA using the universal automaton. LNCS
3317, pp 325-336, 2005.
[31] M. O. Rabin and D. Scott. Finite automata and their decision problems.
IBM journal of research and development 3, pp 114-125, 1959.
[32] B. Traktenbrot and Y. Barzdin. Finite automata: Behavior and synthesis,
1973.
79
[33] L. G. Valiant. A theory of the learnable. Comunications of the ACM, vol
27, numb 11, pp 1134-1142, 1984.
[34] R. M. Wharton. Aproximate language identication. Information and con-
trol 33, pp 253-255, 1974.
[35] S.Yu. Handbook of formal languages, Regular languages, vol 1, chap 2.
Springer Verlag, 1997.
80

S-ar putea să vă placă și