Sunteți pe pagina 1din 201

TECNOLOGÍA

UNA CONTRIBUCIÓN SISTÉMICA DE ACCIÓN,


REFLEXIÓN Y ANÁLISIS
Colección Textos fa

Facultad de Arquitectura
TECNOLOGÍA
UNA CONTRIBUCIÓN SISTÉMICA DE ACCIÓN,
REFLEXIÓN Y ANÁLISIS
Juan Gerardo Oliva Salinas
Eric Valdez Olmedo
Compiladores

Universidad Nacional Autónoma de México

México, 2014
El contenido de los artículos es totalmente responsabilidad de sus autores
y no refleja necesariamente el punto de vista de la Coordinación Editorial

Hemos puesto todo nuestro empeño en contactar a aquellas personas que poseen los derechos de autor de las imágenes
publicadas en este volumen. En algunos casos no nos ha sido posible, y por esta razón sugerimos a los propietarios de tales
derechos que se pongan en contacto con la Coordinación Editorial

Primera edición: 26 de noviembre de 2014

D.R. © Universidad Nacional Autónoma de México


Facultad de Arquitectura
Ciudad Universitaria
Delegación Coyoacán
C.P. 04510 México D.F.

isbn: 978-607-02-4029-4 (colección Textos FA)


isbn: 978-607-02-6070-4
Prohibida la reproducción total o parcial por cualquier medio
sin la autorización escrita del titular de los derechos patrimoniales

Impreso y hecho en México


índice
9

11
Presentación 

Introducción 
17 A propósito de la apropiación tecnológica
Ronan Bolaños Linares  
27 Análisis configuracional: forma urbana y procesos emergentes
Claudia Ortiz Chao, Ulises Guzmán Sol
y Miguel Ángel Lamas Estrada
47 De la fotografía al modelo tridimensional
Geneviève Lucet
65 El papel de los materiales emergentes y sustentables
en la cosecha de energía renovable y en la creación
de edificios de energía cero de la red
Ernesto Ocampo Ruíz
79 Endurecimiento de cementos tipo Portland inducido por fosfatos y silicatos
Alberto Muciño Vélez y Eligio Alberto Orozco Mendoza
89 Administración de los procesos productivos en arquitectura:
alcances y beneficios para el quehacer arquitectónico
Jorge Quijano Valdez

101 La importancia de conocer algunos conceptos subjetivos


en las estructuras arquitectónicas
Ramón Abúd Ramírez
109 Los marcos, muros y contravientos en la estructura
Jaime Ortiz Pulido
Elementos finitos como alternativa de solución de modelos
119 analíticos en proyectos de estructuras no convencionales.
Un enfoque práctico
Juan José Ramírez Zamora

133 La tecnología en la rehabilitación de inmuebles patrimoniales


Agustín Hernández Hernández
145 Tectónica de placas y el Valle de México
Mario de Jesús Carmona y Pardo
161 Edificios altos en suelos blandos de la Ciudad de México
Perla Rafael Santa Ana Lozada y Lucía Gabriela Santa Ana Lozada
185 Los límites formales de la construcción
en la arquitectura contemporánea
Marcos Javier Ontiveros Hernández

205 Los funiculares como generadores de formas estructurales ligeras


José Luis Rincón Medina

213 Sobre el origen, diseño y construcción de velarias en México


Juan Gerardo Oliva Salinas
225 Transferencia y capacitación en tecnologías para el hábitat popular
Carlos González Lobo
237 Curvas de suspiro y barro
Alfonso Ramírez Ponce

251 Algunas consideraciones para la construcción de cubiertas velarias


Eric Valdez Olmedo

267 Sustentabilidad y tradición:


técnicas constructivas tradicionales como inspiración
para el diseño arquitectónico contemporáneo
María de los Ángeles Vizcarra Reyes

283 Arquitectura + Sostenibilidad + leed


Mario de Jesús Carmona y Viñas
309 ¿Es lo verde realmente sustentable?
Amaya Larrucea yMaría del Carmen Meza Aguilar
321 Sustentabilidad y diseño de paisaje
Alejandro Cabeza Pérez
333 Aspectos técnicos para el manejo de la vegetación en el diseño
Rocío López de Juambelz
355 La tercera piel del humano
Envolvente arquitectónica adecuada al ambiente
José Diego Morales Ramírez
365 El papel de las tic en la prevención de los ciclos de deshonestidad académica
Jimena Torre Rojas
377 Semblanzas
presentación
Con este libro sobre tecnología, la Facultad de Arquitectura Los textos aquí incluidos permiten también conocer el
de la unam da continuidad a la serie de Textos fa, iniciada trabajo de investigación, docente y profesional que la ma-
en el año 2012, con la finalidad de enriquecer los cono- yoría de los profesores del área Tecnología desarrollan y
cimientos y el acervo cultural de los jóvenes alumnos y practican en la cotidianeidad de sus actividades en nuestra
de los profesores que desarrollan su actividad académica Facultad. Todos y cada uno de los profesores cubren áreas
en la misma disciplina o en otras más de la arquitectura. específicas de la tecnología que les ha llevado a ser espe-
La difusión que se logra a través de este libro no se limita a cialistas, autodidactas muchas veces, de su rama específica,
la unam y más bien pretende extenderse a todo el ámbito y es así que demuestran su saber para cumplir con las acti-
de la enseñanza de la arquitectura en nuestro país. vidades de enseñanza, investigación y difusión de la cultura
Los artículos que se presentan en este libro han sido ela- de nuestra Universidad.
borados principalmente por la comunidad de profesores de Nuestra Facultad, sin embargo, no cierra con este libro
la Facultad de Arquitectura de la unam y se incluyen algu- un capítulo de sus anhelos por mejorar la calidad de sus
nas contribuciones externas de destacados académicos y estudiantes y profesores, sino simplemente marca un pel-
profesionales de la arquitectura. Con los artículos compila- daño más de la escalera sin término que habrán de escalar
dos, se cubren diversas áreas de la tecnología en la arquitec- las generaciones futuras para llegar a ser los arquitectos
tura del paisaje, el urbanismo y la arquitectura. La tecnología que brinden un servicio sólido, innovador y altamente
digital no pasa desapercibida; la sustentabilidad, con el creativo, el cual demanda nuestra sociedad.
cuidado de los recursos naturales y el medio ambiente; la La Facultad de Arquitectura de la unam espera que, a
estabilidad de las construcciones, los materiales naturales y través de este libro, los objetivos y metas didácticos de la
artificiales, el diseño estructural, las cubiertas ligeras, la tra- tecnología aplicada a la arquitectura sean alcanzados y
dición constructiva de nuestro país y la administración de que los alumnos y profesores de nuestra Facultad, al igual
los procesos constructivos son cubiertos a través de minu- que las comunidades de estudiantes y profesores de otras
ciosos ensayos en cuyo interior se vierten los conocimiento instituciones de enseñanza de la arquitectura en nuestro
que los profesores han aprendido y practicado a lo largo de país, encuentren una útil herramienta en la serie de cono-
su experiencia docente, académica y profesional y que de- cimientos sobre la tecnología aplicada a la arquitectura
sean compartir y transmitir a los futuros arquitectos y a sus contenidos en este libro.
demás colegas de otras áreas del conocimiento de manera
llana y sencilla, pero siempre dentro del rigor científico
acorde a la calidad y excelencia que aspira y caracteriza a
nuestra Universidad.

9
10
introducción

La arquitectura como disciplina que conjunta una infini- el contrario, puede advertirse como una contribución al
dad de variables se apuntala en la tecnología para llevar vasto conocimiento sobre la materia, como un gran sistema
a cabo la construcción del espacio habitable. Realizar un cuyas variables interactúan entre sí tejiendo redes temáticas
libro sobre tecnología en arquitectura no es tarea sencilla, y reflexiones asociadas a la edificación y procesos admi-
significa un reto ante el riesgo de penetrar en un universo nistrativos; las encadenan a la relación del quehacer ar-
sin fronteras cuya única constante es el cambio y la evo- quitectónico con el medio ambiente y la sustentabilidad,
lución. Como parte de la Colección Textos fa, conformada materiales emergentes y tradicionales, en conjunto con
por las publicaciones sobre Urbanismo, Paisaje, Diseño novedosas herramientas digitales, todos en convergencia
Industrial, Teoría e Historia de la Arquitectura y Proyectos, continua hacia la tecnología. Así los temas se enganchan
que han germinado dentro de la Facultad de Arquitectura sucesivamente presentando un orden con la capacidad de
de la unam, se nos encomendó la tarea de coordinar el modificarse libremente a gusto y conveniencia, dejando
tomo correspondiente al área Tecnología, con el objetivo abierta la posibilidad de configurar la lectura según los in-
principal de transmitir a los estudiantes conocimientos que tereses y afinidades del lector.
colaboren en su formación como profesionistas, como in- El recorrido inicia con algunas reflexiones de Ronan
dividuos y como universitarios. Bolaños, doctor cum laude por la Universidad Politécnica
Para llevar a cabo este compromiso se tuvo como plan- de Cataluña, en su artículo "A propósito de la apropiación
teamiento de inicio estructurar la publicación sobre los tres tecnológica", en donde a manera de introducción explica
grandes ejes que guían la actividad universitaria: docencia, la asociación entre la evolución natural de las especies y
investigación y extensión, visualizando a la tecnología en la tecnología, continúa con ejemplos que describen su pe-
una perspectiva transversal que involucra al diseño arquitec- netración en la sociedad y su implementación en la edu-
tónico con sus disciplinas pares, como el urbanismo, la ar- cación, e invita a participar en hacer "diseño concebido,
quitectura de paisaje y el diseño industrial; además se buscó desarrollado, implementado y difundido con tecnología".
hacer manifiesta su inclusión en las distintas etapas que se En este orden de ideas la arquitecta Jimena Torre Rojas
desarrollan en el ciclo de vida de una obra arquitectónica. escribe "El papel de las tic en la prevención de los ciclos
En consecuencia a este planteamiento, nos dimos a la tarea de deshonestidad académica" para discutir el uso de he-
de realizar una convocatoria que tuviera la característica de rramientas digitales por parte de estudiantes, profesores e
ser incluyente y plural, extensiva a profesores, alumnos y investigadores de manera correcta, como método de pre-
académicos de las carreras que se imparten a nivel licencia- vención en el uso irresponsable de las tecnologías de la
tura dentro de la Facultad de Arquitectura y de la Facultad de información y generar una cultura académica antiplagio.
Ingeniería, así como del Programa de Maestría y Doctorado Claudia Ortiz Chao, Ulises Guzmán Sol y Miguel Án-
en Arquitectura y de la Coordinación de Investigaciones en gel Llamas, en su artículo "Análisis configuracional: forma
Arquitectura, Urbanismo y Paisaje (ciaup). La respuesta fue urbana y procesos emergentes", presentan un tema de van-
satisfactoria, e hizo posible configurar paulatinamente un guardia en donde la tecnología se enlaza con la ciudad.
grupo de académicos y profesionales de probada experien- Manifiestan cómo la calle, el espacio público y los flujos
cia, con diversos perfiles y de distintas generaciones, con dentro de ella ayudan a comprenden su estructura y de-
temas diversos y enfoques muy particulares, así se dio el terminar su accesibilidad; discuten y comparan algunas
primer paso para lograr el objetivo planteado. herramientas digitales de análisis urbano, para posterior-
Una postura que caracteriza a este trabajo es que desiste mente concluir con un ejemplo de aplicación en la ciudad
de instalarse en la visión reduccionista de una totalidad; por de Querétaro. "De la fotografía al modelo tridimensional",

11
escrito por la doctora Geneviève Lucette Lagriffoul, desta- lisis y comprensión de estructuras para edificios en los artí-
cada investigadora en el campo de la computación que en culos del arquitecto Ramón Abud –excoordinador del área
su momento llevo a cabo la construcción de la Sala Virtual de tecnología de la Facultad de Arquitectura, unam–, que
Ixtli en la unam, aborda el método de la fotogrametria digi- ofrece a los estudiantes de arquitectura "La importancia de
tal presentando su evolución histórica, los distintos progra- conocer algunos conceptos subjetivos de las estructuras";
mas que existen, su funcionamiento y costo, además de sus del ingeniero Jaime Ortiz Pulido con "Los marcos, muros
diversas aplicaciones, particularmente en el registro de si- y contravientos en estructuras", en donde manifiesta la im-
tios arqueológicos, zonas urbanas y restauraciones. portancia que tiene conocer, por parte de los estudiantes
En el campo de los materiales se instala el maestro Er- de arquitectura, "el uso y comprensión de elementos es-
nesto Ocampo Ruiz, especialista en el desarrollo de nue- tructurales que resistan las fuerzas generadas por sismos en
vos materiales y sistemas constructivos, con "El papel de el proyecto y construcción de edificios para evitar daños o
los materiales emergentes y sustentables en la cosecha de el colapso de las construcciones"; y del maestro en inge-
energía renovable y en la creación de edificios de energía niería Juan José Ramírez Zamora, especialista en el aná-
cero de la red". Ernesto Ocampo expone la necesidad de lisis de estructuras ligeras, quien nos habla de "Elementos
una visión transdisciplinaria en el diseño arquitectónico, finitos como alternativa de solución de modelos analíticos
una serie de conceptos relacionados con materiales emer- en proyectos de estructuras no convencionales", una visión
gentes aplicados a edificios como captadores y transforma- fresca y contemporánea de análisis estructural con siste-
dores de energía solar, y ejemplos de prototipos realizados mas de cómputo.
en México. En el mismo rubro aparecen Alberto Muciño Por otra parte, se encuentran temas asociados con ci-
Velez, estudiante de doctorado del Programa de Maestría mentaciones, estudios del suelo, edificios altos y conserva-
y Doctorado en Arquitectura, en colaboración con Eligio ción del patrimonio, respecto a los cuales el doctor Mario
Alberto Orozco Mendoza, investigador del Departamento de Jesús Carmona y Pardo, una autoridad en la materia,
de Estado Sólido del Instituto de Física, con la investigación expone con claridad y síntesis "Tectónica de placas y el
titulada "Endurecimiento de cementos tipo Portland induci- valle de México", introduciendo al lector por un viaje en
do por fosfatos y silicatos"; desde el rigor científico de la in- las diversas etapas de la formación de la tierra para llegar
vestigación y de la innovación tecnológica explican cómo a explicar las características del suelo en la Ciudad de Mé-
loscomponentes aditivos aplicados al cemento en una es- xico, apoyado en el Reglamento de Construcciones para el
cala nanométrica contribuyen a su endurecimiento, sen- Distrito federal y sus Normas Técnicas Complementarias.
tando las bases científicas de futuros trabajos en la materia. En un tema paralelo se encuentran Perla Santa Ana Lozada
La administración como componente de la tecnología y Lucía Santa Ana Lozada con un artículo que describe
tiene presencia con el doctor Jorge Quijano Valdez, quien aspectos constructivos y estructurales de "Edificios altos en
suma un texto con una buena estructura argumentativa. suelos blandos de la Ciudad de México", a través de algu-
Enuncia los conocimientos que hoy en día cualquier arqui- nos casos de estudio que abarcan desde el edificio de La
tecto debe tener en torno a la administración de proyectos Nacional hasta la reciente construcción de la torre bbva en
con el texto "Administración de los procesos productivos Paseo de la Reforma (2014). Como complemento de este
en Arquitectura: Alcances y beneficios para el quehacer rubro, el doctor Agustín Hernández Hernández comparte
arquitectónico". su vasta experiencia en la rehabilitación de edificios histó-
Continúa el tránsito para dar paso al ámbito de las es- ricos, como la Catedral Metropolitana, en el texto "La tec-
tructuras, donde reside la aportación más abundante de la nología en la rehabilitación de inmuebles patrimoniales".
publicación. Se pueden encontrar temas asociados al aná-

12
El espacio sobre las cubiertas ligeras está encabezado maestra María de los Ángeles Vizcarra de los Reyes, quien
por Marcos Javier Ontiveros Hernández, especialista en nos invita a "conocer, aprender y experimentar, para va-
cubiertas ligeras. Su contribución, "Los límites formales de lorar e innovar" en "Sustentabilidad y tradición: Técnicas
la construcción en la arquitectura contemporánea", des- constructivas tradicionales como inspiración para el diseño
cribe con excelentes ejemplos diversas características de arquitectónico contemporáneo".
estructuras de gran claro y de gran altura. José Luis Rin- La sustentabilidad es una parte importante dentro de la
cón Medina explica de manera clara y en síntesis lo que publicación y se aborda en el diseño arquitectónico y en
todo estudiante de arquitectura e ingeniería debe saber la arquitectura de paisaje. Toma la iniciativa el arquitecto
para conceptualizar una estructura ligera y entender su Mario de Jesús Carmona Viñas, miembro acreditado leed
comportamiento en "Los funiculares como generadores de Profesional, quien presenta un tema de vanguardia por
formas estructurales ligeras". El doctor Juan Gerardo Oliva sus características, "Arquitectura + Sostenibilidad + leed";
Salinas comparte su experiencia profesional, conceptos en él narra el origen de la llamada edificación verde y de
fundamentales de las estructuras ligeras y algunas viven- leed "liderazgo en diseño energético y medioambiental"
cias de su paso en la universidad de Stuttgart, en Alemania, (por sus siglas en inglés), describiendo el sistema de cer-
para introducir al lector en el conocimiento de las cubier- tificación, la labor de los profesionales en este rubro y las
tas velarias y los cascarones reticulados de traslación en el acciones que ejerce, para concluir con una postura sobre
trabajo titulado "Sobre el origen, diseño y construcción de el futuro de este liderazgo. La doctora Amaya Larrucea
cubiertas velarias en México". Finalmente el arquitecto Eric Garritz y la bióloga, maestra en Ciencias, María del Car-
Valdez Olmedo expone "Algunas consideraciones para la men Meza Aguilar invitan a la reflexión con su texto "¿Es
construcción de cubiertas velarias" con algunos proyectos lo verde realmente sustentable?". En éste hacen un "llama-
realizados dentro de nuestra Universidad. do a la ética profesional de todos los que intervenimos en
Atendiendo a la tradición y la economía en la edifica- la construcción de una ciudad y que buscamos realmente
ción, destacan dos visiones sobre el diseño y construcción contribuir a mejorar sus condiciones", con el ejemplo de
de bóvedas. La primera, del doctor Carlos González Lobo, la proliferante aparición de muros verdes. Por otra parte,
consiste en "Transferencia y capacitación en tecnologías Alejandro Cabeza Pérez presenta el tema "Sustentabilidad
para el hábitat popular", donde explica "el caso de las bó- y diseño de paisaje" con la descripción del Bioparque San
vedas de concreto reforzado sobre metal desplegado llama- Antonio, un proyecto con una superficie total de 60 430 m2
das peregrinas, de bajo costo y sin el uso de encofrados o que tuvo como línea de acción la reutilización de materia-
cimbra"; con ello busca "la oportunidad para informar a les, apoyado en conceptos como sustentabilidad, ecología
nuestra Universidad sobre una línea de investigación en y el impacto de la crisis ambiental en el paisaje, desarro-
tecnologías apropiadas y apropiables que se desarrolla des- llado en la Coordinación de Vinculación y Proyectos Es-
de el taller de vivienda popular Espacio máximo y costo peciales de la Facultad de Arquitectura. En la línea de la
mínimo en el área de Análisis, Teoría e Historia del pos- arquitectura de paisaje, la maestra Roció López de Juam-
grado en Arquitectura". El segundo enfoque es del doctor belz y su texto "Aspectos técnicos para el manejo de la
Alfonso Ramírez Ponce con su trabajo "Curvas de suspiro y vegetación en el diseño" promueven el conocimiento de
barro"; describe detalladamente la técnica, con materiales, las especies vegetales con la idea de que "las plantas en
mano de obra y costos, así como el proceso constructivo, el diseño son un material constructivo, con la diferencia
análisis geométrico y posibilidades formales, de las bóve- de que son componentes vivos con requerimientos espe-
das de tabique recargado. En este espacio también tiene cíficos para estar en condiciones saludables, de forma que
cabida la integración de nuevas generaciones, como la puedan lograr los objetivos para los que son utilizados".

13
Finalmente, como cierre de este grupo, tiene un espacio
la bioclimática de la mano del doctor José Diego Morales
Ramírez, especialista en la materia; en su artículo "La ter-
cera piel del humano. Envolvente arquitectónica adecua-
da al ambiente" describe los conceptos fundamentales de
la bioclimática, su desarrollo en México y un ejemplo de
aplicación en una casa habitación.
Veintinueve profesionales de la arquitectura y de la in-
geniería, del urbanismo y de la arquitectura del paisaje nos
muestran a través de veinticinco artículos un panorama
breve y consistente sobre distintos aspectos de la tecnolo-
gía y sus innumerables vínculos con la arquitectura. De esta
manera contribuyen colectivamente al fortalecimiento de
la enseñanza y a cultivar los canales de comunicación con
los futuros profesionistas de México.
Desde estas páginas manifestamos un agradecimiento
a todos los autores de los diversos artículos por sus mag-
níficas contribuciones, todas ellas de gran calidad; a los
prestadores de servicio social y práctica profesional del
Laboratorio de Estructuras por su ayuda siempre desin-
teresada; a los integrantes de la Coordinación Editorial
de nuestra Facultad, en especial a Cristina López Uribe,
Leonardo Solórzano Sánchez y Erandi Casanueva Ga-
chuz, bajo la dirección de Salvador Lizárraga Sánchez; al
arquitecto Jorge Tames y Batta –exdirector de la Facultad
de Arquitectura unam– por impulsar esta iniciativa en su
gestión, y en especial al arquitecto Marcos Mazari Hiriart,
actual director de nuestra Facultad, por su interés y en-
tusiasmo en dar continuidad al proyecto y llevar a buen
puerto el tomo Tecnología de la Colección Textos fa.

Ciudad Universitaria, noviembre de 2014

Juan Gerardo Oliva Salinas


Eric Valdez Olmedo

14
16 Colección Textos FA o Tecnología
A propósito de la apropiación tecnológica
Ronan Bolaños Linares

Evolución tecnológica

La tecnología suele reconocerse como una serie de técnicas convocadas para


desarrollar actividades como sustitución o complemento de las actividades
humanas, de modo que seamos capaces de realizar tareas que puedan supe-
rar nuestras propias capacidades físicas.
El afán humano que busca el incremento constante de habilidades se
relaciona con la continua reconfiguración que la naturaleza opera en las
especies a través de los procesos evolutivos, con base en el instinto de super-
vivencia. Por ejemplo, reconocemos que en un contexto donde concurren
varias especies, cada una establece hábitos alimenticios conducidos por la
eficiencia en la inversión y captación de energía, ya que sólo podrán sobrevi-
vir las especies más aptas, las mejor incorporadas a su entorno, aquéllas que
hayan desarrollado índices de mayor efectividad en sus actividades. Así, la
selección natural dictará si una especie sobrevivirá una generación más o no.
Los seres vivos desarrollamos mecanismos de supervivencia en varios senti-
dos, al dotarnos de mayor fuerza para poder llevar a cabo actividades nece-
sarias como construir un refugio; de mayor resistencia cuando hay escases de
alimento; de mayor sigilo para aproximarnos a una presa; de mayor veloci-
dad para escapar de un depredador; al ajustar el tamaño del cuerpo, a fin de
podernos imponer contra otras especies que podrán entonces desestimar su
propia efectividad de caza al percibir la gran escala de su oponente; o bien
mediante la evolución a una subescala, de modo que podamos alimentarnos
en periodos extendidos de escasez con menos recursos y pasar desapercibi-
dos ante depredadores. Estos ajustes se dan a lo largo de varias generaciones
y terminan por incorporarse a la codificación genética de la especie misma,
en tanto que se hayan reforzado a lo largo de algunas generaciones. De esta
forma las adaptaciones prueban ser mayormente acertadas cuando subsisten
y asimismo la configuración de la especie que ha incorporado estas adapta-
ciones. Es así que se distingue el fin último por el que se esfuerza cualquier
especie, la supervivencia misma.

17
Las operaciones que ocurren en las iteraciones evolutivas procuran un
incipiente acopio de orden en la recodificación que se produce. Dichas
operaciones tienden a reorganizar las reglas que configuran a cada especie,
reacomodando y reajustando varias veces las propias condiciones, de modo
que las especies, para adaptarse, suelen acceder a sistemas de organización
cada vez más complejos y mejor adaptados en generaciones posteriores. Estas
operaciones con incrementos de orden expresan una de las condiciones más
intrigantes de la naturaleza misma, la negentropía o entropía negativa, misma
que podría ser descrita como una fuerza que busca alcanzar un comporta-
miento organizacional efectivo a fin de establecerse en un estado predecible.1
La negentropía es patente en los resultados de adaptación y es notable en la
superposición de iteraciones evolutivas, que cada vez fortalecen con mayor
precisión las reglas que constituyen a cada especie. Las adaptaciones a lo
largo de sucesivas generaciones se adscriben a un sistema transgeneracional
de codificación que describe las relaciones entre especies. Este sistema des-
criptivo de relaciones se conoce como filogénesis, mientras que el desarrollo
físico de un sólo individuo se reconoce como su ontogénesis.
En apego a estas leyes naturales, como especie nos reconfiguramos cons-
tantemente con incrementos negentrópicos a lo largo de nuestra propia línea
filogenética. Dado que tenemos codificado un sistema que reestructura sus
reglas a partir de aprender de la experiencia y en favor de incrementar conti-
nuamente nuestra efectividad y eficiencia, no es de extrañar que la incorpo-
ración recurrente de ajustes o mejoras en favor de la supervivencia codificada
genéticamente se corresponda con una búsqueda constante por adjudicarnos
nuevas capacidades que también contribuyan a nuestra supervivencia como
parte de nuestra forma de actuar. De este modo es que nos valemos de la
tecnología, justo para acelerar aquello que podríamos considerar "la lenta
adaptación filogenética natural de la especie". Por tanto podríamos clamar que
el desarrollo y la incorporación de la tecnología en buena medida se deben
a nuestro instinto de supervivencia.
Ahora, también es cierto que esta forma de ser no se traduce únicamente
en la incorporación de recursos extracorpóreos como son los objetos tecno-
lógicos, sino que esta actividad negentrópica coincide en origen con los
procesos naturales que nos rigen y ha sido traducida e incorporada en nuestra
conducta humana a modo de heurística, es decir, operando la mejora constante
de procesos gracias al aprendizaje de experiencias pasadas, por encima de
la actividad de la mayoría de las especies; esto ha sido también gracias a la
memoria colectiva que trasciende generaciones.
Sería fácil considerar que nuestra conducta funciona en la condición lími-
te de la eficiencia operativa de aquellos procesos que imitan a la naturaleza,
pues como humanos hemos sabido sobreponernos a las otras especies que
cohabitan nuestro mundo. Nuestra especie ahora marca el paso de la su-
pervivencia global, incluso al punto de arrebatar decisiones a la naturaleza
1 Silvia M. Grinberg, “Pedagogical Risk
and Governmentality: Shantytowns misma, actitud que muestra un importante margen de error.
in Argentina in the 21st Century”, Si asumimos nuestra pertenencia al mundo natural como seres codificados
(conferencia leída en Cambridge: Risk &
Rationalities Conference, Scarr: Social que operan en función de reglas naturales, podríamos considerar que lo artifi-
Contexts and Responses to Risk, Queen’s
College, 2007) p. 4. cial, es decir aquello cuanto se ha transformado con nuestras manos y mentes,
será una réplica humana de las operaciones que concurren en la naturaleza;

18 Colección Textos FA o Tecnología


es decir, una vertiente experimental, dispar y acelerada de la reconfigura-
ción genética, la cual habitualmente tiene lugar en el marco de la pausada
velocidad que tantas generaciones le significan a la naturaleza para poder
comprobar tan sólo un ligero cambio. Por lo tanto, el desarrollo tecnológico
simularía al desarrollo evolutivo de las especies, con la diferencia de contar
con una agenda iterativa mucho más acelerada.
Si la tecnología puede extender las capacidades humanas, podemos razonar
que es capaz de conferir a un solo individuo, gracias a la optimización de
recursos y al eficiente uso de energía, la capacidad de completar la labor que
habitualmente haría un número elevado de personas. La tecnología posibilita
incrementar capacidades humanas en cuanto a precisión, alcance, velocidad
y fuerza; asimismo, con ella un solo individuo es capaz de ejercer funcio-
nes y actividades imposibles de accionar bajo sus capacidades naturales, o
incrementar el número de actividades simultáneas que puede llevar a cabo.
La tecnología es capaz de suplir funciones que ya no podemos o queremos
hacer, además de responder adecuadamente a nuestras crecientes demandas,
ya que las propias capacidades de la tecnología se incrementan como si de
una especie viva se tratara.
La evolución en la tecnología no sólo ocurre con el incremento de capa-
cidades, también se dirige a enfoques específicos de incipiente diversidad.
Hoy en día, lejos de usarla excluvisamente para defendernos de depredado-
res y otras amenazas, para aprovisionarnos con alimento suficiente y asegurar
nuestra descendencia, conducimos en buena medida su desarrollo fuera de las
condiciones primarias –ya bien provistas de tecnología– y nos acercamos con
nuevos desarrollos a revisar la tecnología preexistente, para así analizar su efi-
ciencia y, a través de los procesos de reingeniería, proponer o reponer mejores
soluciones con segundas, terceras y subsecuentes generaciones tecnológicas. Es
decir que, además de servirnos de la tecnología para extender nuestras capa-
cidades, la hemos incorporado en nuestra dinámica heurística orientada por
la actividad negentrópica en réplica imitativa de las condiciones naturales del
desarrollo evolutivo.
Esta obsesión por propiciar mayores y mejores condiciones a través de la
tecnología, que ya ofrece solventar más o menos con un buen nivel de eficiencia
nuestras demandas básicas, se permite orientar su desarrollo e implementa-
ción en consideración de un enfoque con una escala mayor. De este modo,
el desarrollo tecnológico contemporáneo aborda temas de sostenibilidad y de
acondicionamiento eficiente del hábitat, entre otros tantos que ahora estarán
más cercanos a la trascendencia de nuestra especie, más cercanos a cuidar
una escala filogenética en simbiosis con el entorno.

Incorporación tecnológica

En retrospectiva, la incorporación tecnológica ha ayudado al incremento de capa-


cidades y a la eficiencia operativa. Reconocemos que la agricultura, la imprenta,
el telégrafo, la máquina de escribir e incluso el ahora obsoleto fax permitieron
claramente agilizar una serie de acciones que antes no podrían haberse cubierto
con la solvencia que hoy demandamos y que aceptamos nos han brindado.

A propósito de la apropiación tecnológica 19


La revolución tecnológica que se ha desarrollado con mayor velocidad ha
sido la de las computadoras, posiblemente por el rendimiento y las capaci-
dades que han otorgado en cuanto a su relación tamaño-precio; por las insis-
tentes, competitivas e incipientes mejoras que se les han incorporado hasta
nuestros días; por la reducida escala en la cual se ha gestado su evolución,
la cual ha permitido constantes iteraciones de diseño a bajo precio con una
rapidez de fabricación única.
Respecto a la velocidad, Tom Forester, en 1987,2 hacía una comparación
entre el desarrollo de la computación, el automovilístico y el de la industria
aeronáutica. Señalaba que en aquel año se tenía más capacidad de procesa-
miento contenida en una computadora doméstica promedio, misma que ha-
bría de costar alrededor de unos $100 usd, que aquélla que había ofrecido la
eniac 3 en su momento, y que de hecho el primer verdadero microprocesador
comercializado, el 4004 de Intel, introducido en 1971, ya era equivalente, en
capacidad de procesamiento más o menos, a la misma eniac.
Para 1977 el fundador de Intel, Robert N. Noyce, afirmaba en la revista
Scientific American que una microcomputadora típica era mucho más pode-
rosa que una eniac; y todavía más, que era veinte veces más rápida, con más
memoria, miles de veces más confiable, con el consumo de energía de un
foco doméstico en vez de consumir lo que una locomotora; además que ocu-
paba 1/30000 del volumen y costaba el equivalente a 1/10000 de la otrora
victoriosa computadora.
Puesto de otra forma, según Forester, si la industria del automóvil y la
industria aeronáutica se hubieran desarrollado como la industria de la com-
putación, un Rolls Royce costaría en 1987 $2.75 usd y correría a lo largo de
poco más de un millón de kilómetros con un litro de gasolina. Por su parte,
un Boeing 767 costaría solamente $500 usd y daría la vuelta a la tierra en 20
minutos con unos setenta litros de combustible.
Si extendemos el ejemplo de Forester al contexto del año 2012, la compa-
ración entre el primer microprocesador de Intel y un procesador I7 4770 de
cuarta generación con tecnología Ivy Bridge de la misma empresa, también
destinado para uso personal, muestra que el nuevo procesador excede unas
seiscientas mil4 veces la capacidad de procesamiento del Intel 4004 y es
2 Tom Forester, High-Tech Society: The Story
of the Information Technology Revolution, cinco mil veces más rápido.5
eu, mit Press, 1987, p. 18. Pese a que el I7 4770 es unas doce veces más caro que el 4004, la diferen-
3 La eniac, nombrada por el acrónimo
que forman en inglés las siglas de cia aún permite una comparación sorprendente. Un doceavo de la capacidad
Computador e Integrador Numérico de procesamiento del I7 equivale incluso a cinco mil veces más capacidad
Electrónico, fue creada en 1946 y
es considerada una de las primeras de procesamiento. Esto equivaldría, en el ejemplo del caso del Boeing 767
computadoras electrónicas y tal vez la
primera más conocida. Vid. Herman H. –si el aumento de capacidad se pudiera extrapolar a la reducción de costo–,
Goldstine, The Computer from Pascal to a una reducción en el costo de tal avión, hasta llegar a unos $0.10 usd, es
Von Neumann, eu, Princeton University
Press, 1972. decir que si la industria aeronáutica hubiera evolucionado como la industria
4 En cuanto a número de transistores, ya
que el I7 4770 tiene 1,400 millones de de la computación, un avión con una capacidad promedio de unos 280 pasa-
transistores contra los 2,300 del 4004. jeros solo costaría diez centavos de dólar en el año 2012.
5 El I7 4770 tiene una velocidad de reloj de
3.9 Ghz contra los 740 Khz de la 4004. Tal reducción en costos, eficiencia operativa y velocidad en el incremento
6 Moore's Law, “Moore´s Law or how de capacidades de la tecnología computacional ha sido posible gracias a la
overall processing power for computers
will double every two years”, microelectrónica. Ésta ha permitido la democratización de capacidades, ha exten-
http://www.mooreslaw.org/ [consultada
el 10 de agosto de 2013]. dido su distribución y ha orientado la atención de quienes buscan explorar
con tecnología, ya que cada vez con menos recursos cualquier usuario obtiene

20 Colección Textos FA o Tecnología


mayores capacidades. De acuerdo con la ley de Moore6 los micro-
procesadores duplican su capacidad más o menos cada dos años,
velocidad que es posible únicamente en el contexto de la tecnología
de la computación.
La penetración que tiene la tecnología en la población mundial
actual se estima cercana al 77%, en correspondencia con la cobertura
del suministro eléctrico; para fines estadísticos se asume que sin elec-
tricidad prácticamente no se cuenta con ningún tipo de tecnología.
En México, la cobertura eléctrica del 2012 se estimó en un 96.5%,7
por lo cual podríamos observar mayores posibilidades de penetración
tecnológica que en el mundo en general y que en la misma Latinoa-
mérica, con una cobertura promedio del 92% de la población.8
La Unión Internacional de Telecomunicaciones (itu)9 reporta que 01. La supercomputadora Miztli de la
unam en el dgtic, la más potente de
México, en 1997, contaba con 0.97 líneas de teléfono fijo por cada Latinoamérica
10 habitantes, acceso a Internet por parte del 0.67% del total de la
población y 1.82 suscripciones a un servicio de telefonía móvil por
cada 10 habitantes; quince años después, en el 2012, ya contaba con
1.741 líneas de telefono fijo por cada 10 habitantes, acceso a Internet
por parte del 38.42% del total de la población y 8.677 suscripciones
a un servicio de telefonía móvil por cada 10 habitantes.10
Tales cifras sugieren que la posibilidad de acceso a la tecnología
que tiene México puede observarse superior a:

•• La telefonía fija de Finlandia, con 1.647 líneas de teléfono fijo


por cada 10 habitantes.
•• El servicio de celular de Canadá, con 7.574 suscripciones por
cada 10 habitantes.

Por otro lado, en la estadística de acceso tecnológico de la itu, México


no supera a ningún miembro de la Organización para la Cooperación 7 Secretaría de Energía, Informe de
y el Desarrollo Económico (ocde)11 en el acceso a Internet. El miembro Rendición de Cuentas 2006-2012,
México, Sener, 2012, p.16.
más cercano, Turquía, cuenta con una cobertura del 45.13%, misma 8 Tomi Ahonen, Digital Divide:
Global Household Penetration
que es superior a la mexicana en un 17% y que es seguida ascenden- Rates for Technology, http://www.
temente por la griega, con 56%, y la italiana, con 58%. Es acusante se- brightsideofnews.com/news/2011/1/26/
digital-divide-global-household-
ñalar que Canadá, comparada anteriormente con México, cuenta con penetration-rates-for-technology.aspx
un acceso a Internet del 86.77% y Finlandia con el 91%.12 [consultada el 10 de agosto de 2013].
9 International Telecommunications Union.
También es importante observar que México ocupa el último 10 “Portal estadístico de la Unión
Internacional de Telecomunicaciones”
puesto en el Programa para la Evaluación Internacional de Alumnos, http://www.itu.int/net4/itu-d/icteye/
la prueba pisa,13 la cual expone un importante rezago educativo [consultada el 10 de agosto de 2013].
11 Organization for Economic Cooperation
ante los otros 33 miembros de la ocde.14 Tales cifras asoman que and Development.
12 “Portal estadístico de la Unión
no por tener una buena posibilidad de acceso tecnológico gracias Internacional de Telecomunicaciones”,
a la cobertura eléctrica y un elevado índice de comunicación tele- op.cit.
13 Programme for International Student
fónica se tendrá un mejor desarrollo educativo; además, que aqué- Assessment.
llos que se desempeñan bien en las pruebas educativas suelen tener 14 Se usaron los resultados de la prueba pisa
del 2009 ya que al momento de escribir
mejor cobertura de Internet. Entonces consideremos necesario para este artículo no se habían publicado los
resultados de la prueba del 2012. Más
nuestro desarrollo tecnológico y educativo menos teléfono por más información en http://www.oecd.org/
acceso a Internet. Por tanto es necesario desarrollar aquellas condi- pisa/46643496.pdf

ciones que permitan explotar los potenciales tecnológicos del país

A propósito de la apropiación tecnológica 21


al tiempo que se abaten otros impedimentos que ameritan mayores esfuerzos
para alcanzar mejores índices tecnológicos y educativos.
La tecnología de cara al usuario final se ha abierto camino al incrementar las
02. Digitalización 3d en la unam, capacidades personales con una gama más amplia de productos que permiten,
Centro de Ciencias Aplicadas y
entre otras cosas, un mayor y mejor acceso a Internet; las tecnologías han pro-
Desarrollo Tecnológico
gresado disminuyendo los costos de su acceso con productos y servicios más
03. Mediateca, centro de aprendizaje económicos. A este respecto, la itu señala que los 30 países más desarrollados
de idiomas cch Sur, unam
cuentan con un precio de canasta de tic15 (Tecnologías de la Información y la
Comunicación) igual o menor al 1% del PIB per cápita,16 mientras que México
cuenta con un precio de canasta de acceso a las tic del 2.4%, de manera que
ocupa el puesto 63 de la lista que publicó la itu en este rubro en el año 2012;
de acuerdo con la ocde, tiene el rango de precios que arranca más caro de to-
dos los países que integran dicha organización.17 Es así que se enmarca uno de
los retos de México; para fructificar como nación desarrollada, deberá ofrecer
también un mejor y más económico acceso a Internet y a las tic en general.

Implementación tecnológica en la educación

Cuando el acceso a Internet y otras condiciones de infraestructura dejan de


ser impedimento para la incorporación tecnológica, encontramos otros retos
que tienen una relación de carácter más social que económico.18
Con la incorporación tecnológica aparecen una serie de requisitos técni-
cos que ha de aprender el alumno, al punto de llegar a olvidar en ocasiones
durante el proceso educativo las siguientes interrogantes: ¿para qué se emplea
la tecnología?, ¿en qué se aplican esos conocimientos técnicos y cuál es el
objetivo palpable en la realidad? A veces la atención está dirigida a lograr
el efecto inmediato, de forma que no se reflexiona sobre la motivación del
empleo de la herramienta. Por tanto, es necesario reconocer el propósito y
alcanzar las metas previstas de cualquier ejercicio.
En algunas ocasiones el trabajo de una clase se conduce a la elaboración de
un producto o a la obtención de un resultado, obviando o ignorando el proce-
so, de modo que cada vez nos acercamos más a una dinámica de caja negra,
como sucede hoy en día con los teléfonos móviles: ya no sabemos cómo está
15 La Canasta de Precios de las tic (cpt) de armado y cómo funciona cada parte. Los productos cada vez son más fáciles
la itu es una medida de la asequibilidad
compuesta por tres subcanastas: telefonía de obtener sin conocer los pasos intermedios que permiten su existencia. Por el
fija, servicios de Internet de banda ancha
y telefonía móvil. Para mayor información contrario, en un entorno educativo es habitual y deseable conocer el proceso,
consultar http://www.itu.int/ITU-D/ict/ pues éste se puede hacer más eficiente; en cambio, el producto, en la mayoría
ipb/
16 itu, Measuring the information society, de los casos, se mantiene más o menos estable.
Suiza, itu, 2012, p. 76. La falta de apropiación y personalización de un equipo de cómputo, la dispo-
17 Range of broadband prices per megabit
per second of advertised speed nibilidad limitada a un ambiente fijo que además se oferta dentro de un horario
(septiembre de 2011). Recuperado
de http://www.oecd.org/internet/ específico, no permiten dar continuidad práctica al uso de programas, a sus versio-
oecdbroadbandportal.htm [consultada el nes ni a los archivos guardados. De modo que la computadora así acondicionada
10 de agosto de 2013]
18 La lista se basa en la compilación de es una herramienta en préstamo que posiblemente no pueda operar en ejercicio
Amy Hutchison y David Reinking, “A
National Survey of Barriers to Integrating de sus máximas capacidades.
Information and Communication En otros escenarios será la falta de equipo aquello que marque la pauta sobre
Technologies into Literacy Instruction”,
en 59th yearbook of the National Reading el éxito o fracaso de una tarea particular. Si se carece del equipo idóneo para una
Conference, Robert T. Jimenez et al. (eds.) función específica, el objetivo educativo difícilmente podrá cumplirse y el proce-
Estados Unidos, 2010, p. 234-235.
dimiento se percibirá como inalcanzable. De modo que es importante contar

22 Colección Textos FA o Tecnología


02 03

con el equipo necesario para las actividades académicas es- Ahora, también es cierto que el desarrollo de la tecno-
pecíficas de la disciplina. logía suele tener lugar alejado del proceso educativo, sin
También es fundamental tener conocimientos de las apli- embargo cuando finalmente prueba su utilidad permite
caciones tecnológicas correspondientes a la resolución de una incorporación más certera sobre bases pedagógicas, de
los problemas específicos de cada disciplina, ya que los modo que si la tecnología aún no ha alcanzado un punto
beneficios obtenidos a partir de la integración de las tic son de confiabilidad y un punto de previsibilidad tal que permi-
muy productivos. Cada nueva herramienta demanda abatir ta reconocer en los resultados de su empleo algún objetivo
nuevas curvas de aprendizaje a fin de establecerse como una didáctico, no podrá incorporarse en un entorno educativo
opción viable, si en comparativa ofrece mayores o mejores dada la distancia que ha mantenido en su desarrollo.
prestaciones que la estrategia educativa precedente. Es imprescindible observar cómo se integra la operación
Si se cuenta con el equipo necesario y no se tiene el de algunas tic en el campo laboral, ya que esto respalda
personal calificado atento y disponible a darle constante el porqué de su enseñanza, además de permitir conocer
mantenimiento; o bien, si la cobertura de la red es hete- ejemplos didácticos que han sido creados a partir de su uso.
rogénea y no tiene la suficiente capacidad de ofrecer el Cuando se decide emplear las tic en la educación, mu-
servicio requerido donde es necesario, la tarea tecnológi- chas veces, si se desconoce su uso o se le conoce poco, será
ca estará incompleta e incluso inutilizada. más cómodo optar por utilizar algún apoyo de personal, al-
En cuanto a la capacidad operativa del usuario, es po- guien que sepa usarlas bien y pueda apoyar en el desarrollo
sible observar una variación de competencias tecnológicas de las estrategias educativas por implementar. No obstante
contrastante. En este contexto, para trabajar en equipo es la importancia del trabajo en equipo, el desarrollo de las
necesario capacitar con cuidado diferencial a cada usuario, estrategias educativas apoyadas en las tecnologías que em-
de modo que se pueda desarrollar el trabajo en un entorno prende un mismo profesor que imparte la asignatura se co-
más o menos conocido. rresponderá con una respuesta más completa y significativa
Cada clase puede impartirse de diversas maneras. Sólo del contenido y del formato, produciendo sinergia entre los
algunas estrategias educativas permiten la incorporación dos conocimientos aquí entrelazados.
de las tic, sin embargo el objetivo educativo puede cu- La incorporación de las tic en un proceso educativo
brirse de una u otra forma. En cambio, si existe reticencia requiere del tiempo suficiente para razonar y probar cómo
o inflexibilidad para con la opción tecnológica no será y para qué se emplean cada una de las tecnologías, de
posible aprovechar la tecnología que ahí se emplea para modo que su incorporación sea lógica, razonada y eficiente.
aplicarla en otra actividad. Cabe recordar que no todas las tic sirven para cual-
Las dinámicas y procedimientos educativos mediante la quier proceso educativo; con cada perfil curricular se han
incorporación de las tic suelen haber probado ya cierto gra- de seleccionar e implementar las tic pertinentes, que ade-
do de eficiencia; empero, si no se aprovecha esta forma de más de su relevancia individual permitan pensar en una
dar clases con los instrumentos tecnológicos con objetivos complementareidad idónea.
académicos bien resueltos, es posible que los alumnos se La arquitectura y el diseño, como disciplinas abiertas a
pierdan. La tecnología sin objetivos y estrategias educativas la novedad y a la experimentación, operan dentro de una
no incide en la construcción eficiente del conocimiento. actividad configurativa que inevitablemente se asiste de

A propósito de la apropiación tecnológica 23


04. Curso de Diseño Paramétrico y
Arquitectura Generativa impartido la tecnología configurativa o constructiva. En el caso del enfoque artístico, el
en línea. Facultad de Arquitectura, uso de las herramientas o mecanismos de representación contribuye a previ-
unam, 2013
sualizar, incorporar y exhibir elementos preconfigurados que podrán insinuar
con antelación cierto grado de éxito, al tiempo que dotan al autor de más
elementos para que su propuesta sea original; recordemos que ésta es una de
las condicionantes necesarias para que el objeto producido por el arquitecto
o diseñador pueda aspirar a algún grado de éxito.
Ser original es cada vez más complejo, sobre todo cuando un número de
composiciones empiezan a aparecer simultáneamente y, además, se permiten
una mayor difusión. De esta forma se vuelve más difícil encontrar campo para
la originalidad. Una de las opciones con mayores posibilidades es optar por
apoyarse en herramientas tecnológicas, con nuevos materiales, novedosas for-
mas de estructurar y de diseñar, o bien inauditas formas de habitar el espacio.
La obligación del docente de ofrecer herramientas para que el futuro pro-
fesionista pueda ser original se confronta con el temor que éste tiene de
poder incorporar nuevas tecnologías. En sí esta operación trastoca la zona de
confort del docente y le significa asumir el riesgo de implementar la novedad
junto con posibles errores, en detrimento de su reputación.
Será fundamental que el docente opte por una actitud heurística, que
afronte el miedo y decida aventurarse las veces necesarias de forma razonada
y coherente para aprovechar los recursos que ofrece la época en la que la
misma práctica profesional de la disciplina los exige. Reconocerá que los
beneficios se concentrarán en el incremento de la eficiencia operativa, en
la complejidad negentrópica del diseño y en la facilidad de su concepción.
De esta manera permitirá el crecimiento de la arquitectura y el diseño, como
disciplinas comprometidas con su tiempo.

24 Colección Textos FA o Tecnología


Ahora, que si hay atrevimiento, cada tecnología debe contar con un plan
emergente de menor riesgo que respalde la tecnología en prueba, o bien
emprender su diseño, creación o modificación con tal arrojo que si fallara, el
fracaso pueda atraer éxitos por el valor del atrevimiento y la visión aquí ex-
ternados. En cualquier caso, aun el fracaso de esta postura "atrevida" permite
el aprendizaje, útil para futuras experiencias.
Si sabemos que incorporar la tecnología en la educación es posible y al-
tamente deseable ¿cómo es que su implementación se filtra tan lentamente?
Optemos por la tecnología, recibamos los beneficios y respaldemos las
responsabilidades inherentes a su implementación. Hagamos diseño conce-
bido, desarrollado, implementado y difundido con tecnología. ¿Acaso hay
aún alguna otra opción viable o competitiva hoy en día?

Referencias

Ahonen, Tomi. Digital Divide: Global Household Penetration Rates for Techno-
logy, http://www.brightsideofnews.com/news/2011/1/26/digital-divide-global-
household-penetration-rates-for-technology.aspx [Consultada el 10 de agosto
de 2013].
Forester, Tom. High-Tech Society: The Story of the Information Technology Revolu-
tion. Estados Unidos: mit Press. 1987
Goldstine, Herman H. The Computer from Pascal to Von Neumann. Estados Uni-
dos: Princeton University Press. 1972
Grinberg, Silvia M. Pedagogical Risk and Governmentality: Shantytowns in Argen-
tina in the 21st Century. Ponencia leída en Cambridge: Risk & Rationalities Con-
ference, Scarr: Social Contexts and Responses to Risk, Queen’s College. 2007
Hutchison, Amy y David Reinking. A National Survey of Barriers to Integrating
Information and Communication Technologies into Literacy Instruction. En 59th
yearbook of the National Reading Conference. Robert T. Jimenez et al. (eds.).
Estados Unidos: National Reading Conference Inc. 2010.
itu, International Telecommunications Union. Measuring the information society.
Suiza: itu. 2012.
Moore’s Law. "Moore’s Law or how overall processing power for computers will
double every two years", http://www.mooreslaw.org/ [Consultado el 10 de
agosto de 2013].
Portal estadístico de la Unión Internacional de Telecomunicaciones, http://www.
itu.int/net4/itu-d/icteye/ [Consultada el 10 de agosto de 2013].
Secretaría de Energía (Sener). Informe de Rendición de Cuentas 2006-2012. Mé-
xico: Sener. 2012.

A propósito de la apropiación tecnológica 25


Análisis configuracional: forma urbana y
procesos emergentes

Claudia Ortiz Chao


Ulises Guzmán Sol
Miguel Ángel Lamas Estrada

Introducción

Entre los estudiosos de la ciudad se concibe a ésta como un sistema comple-


jo, es decir, que posee propiedades emergentes, cuya estructura está definida
por la interacción de una serie de procesos descentralizados, también cono-
cidos como “de abajo hacia arriba” (bottom-up).1 Dada esta complejidad,
resulta difícil, aún para los especialistas, comprender y explicar la manera en
que dichos procesos se interrelacionan.
En las últimas décadas, la forma de la ciudad ha despertado el interés de
algunos académicos como medio para explicar algunos de estos procesos,
como Batty y Longley2, Hillier3, Moudon4, Siksna5, entre otros. Estudios como 1 M. Batty y P. Longley, Fractal Cities. A
Geometry of Form and Function, Inglaterra,
los de Alexander6, Hillier7 y Hillier e Iida8 han demostrado que la manera Londres, Academic Press, 1994.
como las calles y otros espacios públicos están organizados influye en los 2 Idem.
3 B. Hillier, “The Hidden Geometry of
procesos que ocurren en la ciudad. De acuerdo a este enfoque, los luga- Deformed Grids: or, why space syntax
works, when it looks as though it
res mejor conectados tienen mayor potencial de flujo peatonal, por lo que shouldn’t”, Environment and Planning B:
atraen ciertos usos de suelo que generan mayores posibilidades de encuen- Planning and Design, 26: 1999, pp.169-191.
4 A.V. Moudon, “The evolution of twentieth-
tro e interacción: centros urbanos, corredores o espacios públicos exitosos. century residential forms”, en Urban
Lo contrario se espera para los lugares poco permeables que crean barreras o Landscapes, J.W.R Larkham Whitehand
eds., Londres y Nueva York, Routledge,
están segregados. Es importante recalcar que esta aproximación no ignora la 1992.
5 A. Siksna, “City Centre Blocks and their
existencia de otros factores que también influyen en tales procesos, pero afir- Evolution: A Comparative Study of Eight
ma que la forma urbana es una variable que inequívocamente está presente American and Australian CDBs”, Journal of
Urban Design 3: 1998, pp. 253­-284.
para reforzarlos o inhibirlos. Desde el punto de vista del planificador o del 6 C. Alexander, “A city is not a tree”, Ekistics,
23: 1967, pp.344-348.
diseñador urbano, esta información es sumamente útil, pues le permite com- 7 B. Hillier, A. Penn, J. Hanson, T. Grajewski y
prender la manera como funciona y se estructura la ciudad (procesos) a tra- J. Xu, “Natural Movement: or, Configuration
and Attraction in Urban Pedestrian
vés de su configuración (forma). Movement”, Environment and Planning B:
Este trabajo discute y compara cinco de las herramientas disponibles para Planning and Design 20 (1): 1993, pp. 29-66.
8 B. Hillier y S. Iida, “Network and
analizar la ciudad desde la óptica del análisis configuracional, el cual se psychological effects: a theory of urban
movement”, Spatial Information Theory
considera tiene la cualidad de capturar las propiedades más significativas de 3603: 2005, 473-490.
la forma urbana con un buen grado de detalle. Las primeras tres provienen

27
del campo de conocimiento conocido como space syntax9 o sintaxis del es-
pacio, desarrollado originalmente por Bill Hillier y sus colegas en University
College London (ucl). Estas herramientas son Mindwalk 1.010, Depthmap11 y
Mindwalk 2.012. Las otras dos herramientas provienen de los sistemas de in-
formación geográfica (sig) y se examinan combinadas como una alternativa
al problema metodológico de traslapar las capas de información referentes a
las otras variables que se busque analizar, i.e. los procesos. Éstas son Urban
Network Analysis13 y Network Analyst14.
A pesar de su evidente utilidad, es preciso recordar que este tipo de herra-
mientas son muy especializadas y relativamente recientes, por lo que suelen
ser totalmente desconocidas o bien ignoradas por el usuario no especialista
9 Las ideas principales de esta teoría y en el estudio de redes. Este trabajo pretende proporcionar un punto de par-
metodología se discuten en la siguiente
sección. Para mayor información véase tida desde donde cualquier usuario relacionado con el medio construido, su
http://www.spacesyntax.net/ estudio, planificación o diseño pueda comprender la importancia de la forma
10 L. Figueiredo, Mindwalk, Recife, sin
publicar, 2004. urbana en la naturaleza emergente de los procesos que dan forma a nuestras
11 A. Turner, Depthmap, Londres, University
College London, 2004. ciudades, por medio del análisis configuracional; y, con suerte, despertar su
12 L. Figueiredo, op. cit. curiosidad para que se decida a probar su uso y se genere un nuevo espacio
13 A. Sevtsuk y M. Mekonnen, Urban Network
Analysis: A Toolbox for ArcGIS 10/10.1, de discusión. Tras una breve revisión de las herramientas mencionadas, donde
2012.
14 Esri, Network Analyst, s. f.
se comparan sus ventajas y desventajas, se presenta un caso de aplicación en
15 La morfología se refiere al estudio de la la delegación Felix Osores de la ciudad de Querétaro.
forma.
16 B. Hillier, A. Penn, J. Hanson, T. Grajewski

17
y J. Xu., op. cit.
A diferencia de otras medidas de
Accesibilidad y procesos urbanos
accesibilidad, como las de oportunidades
acumuladas, de utilidad o de gravedad,
que se usan para estimar la accesibilidad La idea clave que sostiene al análisis configuracional es que la forma y configu-
de un lugar de acuerdo a las atracciones ración urbanas atraen mayor cantidad de movimiento en las áreas más accesibles
que lo rodean, las medidas de red calculan
la accesibilidad de una ubicación dadas y menores cantidades en aquellas con menor accesibilidad. Estos patrones de
las propiedades geométricas del tejido
urbano. Véase A. Svetsuk, “Path and Place:
movimiento, debidos a las características morfológicas15 de las ciudades, pro-
A Study of Urban Geometry and Retail vocan que ciertas actividades que se benefician de la presencia de paseantes,
Activity in Cambridge and Somerville, MA”,
Tesis de doctorado, Department of Urban como el comercio, se establezcan en las zonas más accesibles y, por lo tanto,
Studies and Planning, Boston: mit, 2010. de mayor movimiento.16
Para la descripción de cada una de las
medidas de accesibilidad véase Scheurer Las medidas y resultados de este tipo de análisis también se conocen como
y Curtis, 2007, o su traducción al español
en U. Guzmán, La accesibilidad como medidas de red17, ya que la ciudad se representa como un sistema de nodos
instrumento de evaluación de los modos de interconectados.18 La representación más comúnmente utilizada desde el en-
transporte: La temporalidad y el acceso a
las oportunidades, Querétaro, Tecnológico foque sintáctico es el mapa axial19, en el cual cada línea recta de movimiento
de Monterrey Campus Querétaro, 2013.
18 J. Scheurer y C. Curtis, Accessibility
potencial ininterrumpido, generalmente correspondiente a una calle, se re-
Measures: Overview and Practical presenta como un eje. Cada eje representa un nodo en la red, y cada intersec-
Applications, 2007.
19 El mapa axial se define como “el menor ción, una liga o conexión (imagen 1). Dicho enfoque se conoce como dual;
conjunto de ejes rectos que atraviesan a diferencia de éste, en el enfoque primario las intersecciones representan
cada espacio bidimensional haciendo todas
las conexiones posibles del sistema”, nodos y los ejes, conexiones.20
Hillier y Hanson, op.cit., 1989.
20 S. Porta, P. Crucitti y V. Latora, “The Ya que este tipo de análisis estudia la manera en que los nodos están conec-
network analysis of urban streets: a tados e interrelacionados, un nodo puede ser accesible de varias maneras: por
dual approach”, Physica A: Statistical
Mechanics and its Applications, 369(2): ser más cercano en promedio a los demás nodos (closeness centrality), por
2006, 853-866.
21 S. Porta, P. Crucitti y V. Latora, op. cit.,
estar en las rutas más frecuentes a los demás nodos (betweeness centrality)
pp. 853-866. o si sus conexiones a los demás nodos son las más directas (straightness
centrality).21

28 Colección Textos FA o Tecnología


01. Mapa axial y transformación a red. Mientras que cada eje
representa un nodo, cada relación o conexión representa una liga
Fuente: Elaboración propia en Mindwalk

02. Dos tipos de accesibilidad: cercanía (closeness) y


selección de rutas (betweeness).
Fuente: Elaboración propia en Mindwalk

Análisis configuracional: forma urbana y procesos emergentes 29


03. Construcción de modelo de
accesibilidad a lote: 1) mapa axial, Algunas variaciones del mapa axial incluyen la de Figueiredo y Amorim22,
2) red axial, 3) mapa de interfaz o quienes proponen comprimirlo. Otra es el mapa de segmentos en el que las
conexiones entre ejes y lotes,
4) red completa líneas axiales se fragmentan en cada intersección con otro eje. En esta repre-
Fuente: Elaboración propia en sentación, cada segmento se convierte en un nodo en la red, con lo cual se
Mindwalk
dota al análisis de accesibilidad un mayor grado de detalle donde, además del
número de conexiones, se pondera el cambio angular de dirección;23 es decir
que una conexión a pocos grados de diferencia (casi una línea recta) tiene
menor ponderación que el desvío sobre una y, y esto menos que un eje o calle
a 90 grados, por ejemplo.
Estos resultados carecen de significado si no se analizan con otras capas
de información. Se debe tener en cuenta que la importancia de este enfoque
radica en el entendimiento de los procesos que ocurren en la ciudad, en
especial los espontáneos o emergentes. Las capas pueden ser de índole muy
diversa, según sea el proceso que se estudie; por ejemplo, distribución de
usos de suelo, aforos, patrones de ocupación de lote, existencia de cierto
equipamiento o infraestructura, valor de suelo, etcétera.
Lo anterior puede presentar algunos problemas metodológicos. En primer
lugar, ¿cómo relacionar la variable configuracional (calle) con la variable eco-
nómica o social (proceso)? Si el evento que se estudia tiene pocas ocurrencias,
tal como iglesias en un barrio, por ejemplo, es posible ubicarlas y asignarlas
22 Lucas Figueiredo y L. Amorim, "Continuity a la calle a la que correspondan manualmente; en cambio, si se estudian
Lines in the Axial System", Fifth Space
Syntax International Symposium, Delft construcciones de más de un nivel de todo un municipio, la tarea consumiría
University of Technology, 2005.
23 B. Hillier y S. Iida, op. cit., pp. 473-490. mucho tiempo y sería complicada. Otro problema en este caso sería la nor-
24 B. Hillier y O. Sahbaz, "High Resolution malización. Una calle más larga presenta mayor probabilidad de que ocurra
Analysis of Crime Patterns in Urban Street
Networks: an initial statistical sketch from un evento, de modo que parecería que éste tuviera mayor incidencia, pero
an ongoing study of a London borough", Fifth
Space Syntax International Symposium,
no es así; si se divide el número de eventos entre la longitud de la calle este
Delft University of Technology, 2005. problema sólo se invierte. Hillier y Sahbaz24 proponen agrupar las unidades
de estudio en bandas por número de eventos para evitar esta dificultad.

30 Colección Textos FA o Tecnología


Por otro lado, se han propuesto algunas alternativas
desde la abstracción del sistema urbano. Una de ellas es
el modelo de accesibilidad a lote25 que usa una represen-
tación a escala más fina, donde los lotes o edificios están
conectados a las calles, de forma que se convierten en
nodos del sistema urbano.
Con el desarrollo de los sig, en los últimos años se ha
desarrollado otro grupo de propuestas capaces de interna-
lizar la variable de estudio en la representación del sistema
urbano. La herramienta Place syntax26, por ejemplo, es una
descripción que también integra los lotes al análisis; además
pondera la accesibilidad de la red, representada como mapa
axial, con cualquier variable, como densidad de población o
la presencia o no de cierta amenidad. El problema con este
tipo de propuestas es que al incluir otras variables desde la
representación del sistema resulta confuso tratar de identi-
ficar el efecto de la configuración en el fenómeno que se
estudia, lo cual termina por ser teóricamente conflictivo.27
Por último, se presenta una aproximación novedosa que
combina el análisis de red con otras medidas de accesibili-
dad: las medidas de contorno, también conocidas como de
oportunidades acumuladas.28 Para éstas, la accesibilidad no
se refiere solamente a la configuración, sino que es producto
del binomio modos de transporte-usos de suelo; es decir,
un lugar es accesible a partir de su localización en la red y
los medios con los que se cuenta para llegar a él. Este tipo
de medidas utilizan el tiempo de viaje para definir áreas de
influencia dentro de las cuales se localizan los destinos, es
04. Mapa de oportunidades
decir, las oportunidades.
Fuente: Elaboración propia usando
Para construir un análisis como éste se utilizan los net- Network Analyst
work datasets (bases de datos de red), los cuales permi-
ten simular el comportamiento de los diferentes modos de
transporte que se asocian con las oportunidades ofrecidas.
Este tipo de representación es propia de los sig, por lo que
se genera y analiza dentro de este tipo de sistemas. Una 25 Lucas Figueiredo y C. Ortiz Chao, "Análisis
Configuracional del Entorno Construido",
diferencia importante con el enfoque de sintáxis espacial Cuadernos de Arquitectura y Nuevo
Urbanismo. Del Transecto y el Análisis de
es que la red se analiza con un enfoque primario, i.e. las Conectividad, 6 (10), Querétaro, Tecnológico
intersecciones son nodos y los ejes, ligas o conexiones. de Monterrey, 2012.
26 Stahle, A., L. Marcus y A. Karlstrom,
"Place Syntax - geographic accessibility
Diferentes herramientas para medir la accesibilidad with axial lines in gis", Fifth Space Syntax
International Symposium, Delft University
of Technology, 2005.
27 L. Figueiredo y C. Ortiz Chao, op. cit.
Aunque la aproximación que se presenta comienza a de- 28 J. Scheurer y C. Curtis, op. cit.
sarrollarse en los años setenta,29 la necesidad de analizar 29 B. Hillier y J. Hanson, The Social Logic of
Space, Cambridge, Cambridge University
sistemas cada vez más grandes y complejos, difíciles de Press, 1984.
calcular a mano, propició la búsqueda de herramientas

Análisis configuracional: forma urbana y procesos emergentes 31


05. Mapa de contiuidad informáticas para hacerlo de manera automatizada. La primera de éstas fue
Fuente: Elaboración propia en
Mindwalk
Axman, desarrollada por Nick Sheep Dalton a finales de los ochenta dentro
del Laboratorio de Space Syntax de ucl. Fue escrito para Apple Macintosh,
sistema operativo 5.0 en adelante, con la finalidad de analizar mapas axiales
dibujados previamente en un sistema cad o a mano para ser digitalizados en
este software.30
Desde entonces, con el avance y alcance de más y mejores recursos tec-
nológicos y un intercambio de conocimiento cada vez mayor a través de las
redes sociales –incluyendo foros virtuales de discusión, software de acceso
libre y códigos abiertos (open source)–, se ha desarrollado un buen número
de herramientas, algunas diseñadas para satisfacer las necesidades específi-
cas de sus creadores. En esta sección se describen brevemente cinco de ellas.
La primera de éstas es Mindwalk 1.0, desarrollada por Lucas Figuereido
en 2004. Es una herramienta de análisis espacial con base en redes que
30 Space Syntax, UcL Space Syntax Software utiliza Java31 como motor de procesamiento. Es un software stand-alone, o
Manuals, Space Syntax / UCL, 2004.
31 Java es una tecnología subyacente que de plataforma independiente, y está disponible para los sistemas operativos
permite el uso de programas punteros,
como herramientas, juegos y aplicaciones
Windows, Apple Macintosh y Linux. Ofrece al usuario la posibilidad de ana-
de negocios. lizar un mapa axial o un mapa de continuidad. En este último es posible
32 Lucas Figueiredo y L. Amorim, op. cit.
33 El software se encuentra disponible en agregar las líneas axiales de calles curvas o sinuosas, hasta un determinado
www.spacesyntax.net ángulo de tolerancia, como líneas continuas de movimiento. Éstas adquieren
la misma importancia que las líneas largas y rectas en la jerarquía de calles.

32 Colección Textos FA ⓞ Tecnología


El mapa de continuidad resultante es una descripción generalizada de la
trama urbana basada en los flujos y rutas más simples (imagen 5)32. Se trata
de una herramienta de acceso libre, sin grandes requerimientos para su ins-
talación y de uso sencillo e intuitivo.
Depthmap es un software desarrollado y distribuido por University Colle-
ge London a través de Space Syntax Network. La aplicación fue desarrollada
por Alasdair Turner en 1998 para análisis de campos visuales. Desde enton-
ces ha sufrido múltiples transformaciones para incluir análisis y generación
de mapas axiales y análisis de mapas de segmentos, entre otros. A partir de
2011 funciona como software de uso libre, disponible después de llenar un
breve formulario de registro en línea.33 Es multiplataforma, además de que su
instalación es muy sencilla.
El análisis de segmentos fue implementado en Depthmap a partir de la
versión 4 (2004) gracias al desarrollo del modelo de segmentos por Shinichi
Iida en Segmen (2001), una herramienta capaz de analizar sistemas de buen
tamaño con un alto grado de complejidad, pero con una interfaz muy poco
amigable. En el mapa de segmentos, las líneas axiales se fragmentan en cada
intersección con otro eje. Cada segmento se convierte en un nodo en la red
dotando al análisis de accesibilidad de un mayor grado de detalle donde,
además del número de conexiones, se pondera el cambio angular de direc-
ción;34 es decir, una conexión a pocos grados de diferencia (casi una línea
recta) tiene menor ponderación que el desvío sobre una y; y esto, menos que
un eje o calle a 90 grados, por ejemplo.
Para responder al problema metodológico de relacionar la variable corres-
pondiente al proceso que se estudia con la red –planteado al principio de este
trabajo–, Figuereido desarrolla Mindwalk 2.0 en 2007. En general, cumple
con las mismas características que la versión anterior (Mindwalk 1.0) pero
incorpora un nuevo nivel de análisis, la accesibilidad a lote: utiliza como
insumos un mapa axial y un layer vectorial de intercambio (.dxf de cad o .mif
de sig) de predios o manzanas como polígonos; el programa conecta los lotes
a la red, los convierte en nodos y calcula la centralidad individual de cada
predio, además de la de las calles.
Aunque las variables o procesos no están implícitos en este tipo de repre-
sentación, éstos pueden ser fácilmente relacionadas con la red, pues la ma-
yoría de ellos ocurren en los lotes (usos de suelo, valores, densidad, número
de pisos, estado de los inmuebles, características de los habitantes, etcétera);
asimismo, aun cuando se trate de variables que ocurren en la calle, como los
aforos, por ejemplo, resulta más fácil localizar y compararlas con la accesibili-
dad de la red usando esa representación, por el nivel de detalle que proporcio-
na la escala fina de los predios. El problema, sin embargo, es que el proceso
es sumamente intenso por la gran cantidad de datos que maneja, por tanto un
análisis de un sistema a escala urbana de una ciudad mediana requeriría de 34 B. Hillier y S. Lida, op. cit., pp. 473-490.
35 Para más información véase http://www.
una computadora con alta capacidad de procesamiento. Se recomiendan al esri.com/
36 Esri, op. cit.
menos 8 gb en ram y procesadores i5 o superiores.

Análisis configuracional: forma urbana y procesos emergentes 33


Network Analyst (na) es una extensión del software de Esri ArcMap35 dise-
ñada para modelar condiciones reales de red como: sentidos de calles, res-
tricciones por modo de transporte, pasos a desnivel, velocidades permitidas
y condiciones de tráfico. Como se muestra en la tabla 1, tiene un ámbito
amplio para el desarrollo de análisis de accesibilidad, ya que permite ejecutar
una amplia variedad de medidas, entre ellas las de red, además de considerar
diversos modos de transporte. Los requisitos de hardware para su instalación
son mínimos, basta con tener un procesador de 2.2 ghz y 2 gb de ram,36
características que son ampliamente superadas por cualquier computadora a
la venta en 2013. Requiere contar con ArcMap, un software especializado y
poco intuitivo, caro y disponible únicamente para sistema operativo Windows.
Urban Network Analysis (una) es una herramienta (toolbox) del ya men-
cionado software ArcMap, creada por Andres Sevtsuk y Michael Mekonnen
en 2012. Esta herramienta permite, entre otras cosas, asignar un valor espe-
cífico a los atributos de los edificios (lotes o manzanas) e incluir estas ca-
racteristicas dentro del cómputo de accesibilidad. De esta forma se puede
observar patrones de accesibilidad derivados de la localización de los nodos
y de la naturaleza de los mismos: un lote en el cual se encuentra un edificio
de diez niveles sin duda atrae un mayor número de viajes que un lote baldío.
Dentro de una es posible calcular cinco tipos de medidas de centralidad:
betweenness, closeness, straightness (explicadas en la sección anterior), re-
ach (los nodos alcanzados a partir del origen mediante las rutas más cortas) y
gravity index (considera no sólamente la atracción del destino sino el esfuer-
zo que se necesita para llegar a él).37
una requiere tener instalada la versión 10, o superior, de ArcMap (licencia
ArcEditor o superior); que el sistema operativo esté instalado en inglés (ac-
tualmente sólo disponible para Windows); contar con una licencia Network
Analyst38; y, aunque no se especifica por parte de los creadores de la he-
rramienta, una computadora suficientemente robusta para efectuar cálculos
que incluyan grandes cantidades de datos. Se recomienda al menos 8 gb de
ram y procesadores core i5 o superiores.
Por otra parte, estas herramientas sí internalizan la variable o variables que
se estudian; es decir, éstas se vuelven parte intrínseca de la representación.
Esto, sin duda, presenta grandes ventajas al momento de analizar informa-
ción multivariable y compleja, como la que presentan los procesos urbanos,
pero, como se mencionó antes, también puede dificultar el estudio de la
forma y su efecto en los procesos analizados.

37 A. Sevtsuk y M. Mekonnen, op. cit.


38 A. Sevtsuk y M. Mekonnen, op. cit.

34 Colección Textos FA o Tecnología


Tabla 1. Algunas herramientas comúnmente usadas para medir la accesibilidad. Descripción de características

Software Ámbito Insumos para análisis Producto Pros Contras

Mindwalk 1.0 • Medidas de red Mapa axial (a mano) Mapa axial procesado • Licencia gratuita • No relaciona la red con otras variables
(Figuereido o centros de vía (red), Mapa de continuidad • Plataforma independiente • Ámbito limitado
2004) formatos: *.dxf; *.xsp;* procesado • Requisitos mínimos de instalación • Dificultad para exportar los resultados a un sig
.txt;* .csv;*.prn;*.asc Tabla de valores • Fácil de utilizar. Gran velocidad de
procesamiento de datos
• Multiplataforma (Win, Mac y Linux)
• Fácil comprensión del resultado

Depthmap • Medidas de red Mapa axial (a mano Mapa axial procesado • Licencia gratuita • No relaciona la red con otras variables
(Turner 1998) o generado en Mapa de segmentos • Plataforma independiente • Ámbito limitado
Depthmap) o centros procesado • Requisitos mínimos de instalación
de vía (red), formatos: Tabla de valores • Velocidad de procesamiento de datos
*.dxf;*.ntf;*.gml;*.cat;*. • Puede realizar análisis a segmentos
rt1;*.mif; • Integración con sig mediante formato *.mif
* .txt;* .csv • Multiplataforma (Win y Mac)
• Fácil comprensión del resultado
Mindwalk 2.0 • Medidas de red Mapa axial o centros Mapa axial procesado • Licencia gratuita • Aptitud muy limitada
(Figuereido de vía (red), formatos: Mapa de accesibilidad • Plataforma independiente • Relaciona la red con otras variables de forma
2007) *.dxf; *.xsp;* .txt;* a lote • Requisitos mínimos de instalación indirecta (mediante sig)
.csv;*.prn;*.asc;*.mif Tabla de valores • Fácil de utilizar • Capacidad limitada a la robustez del hardware
Polígonos (manzanas, • Velocidad de procesamiento de datos para análisis de sistemas grandes
lotes, etcétera) • Integración con sig mediante formato *.mif
formatos: *.dxf; *.xsp;* • Permite realizar medidas de red incluyendo
.txt;* .csv;*.prn;*.asc;*. como nodos los edificios, manzanas o lotes.
mif • Relaciona la red con otras variables
• Multiplataforma (Win y Mac)
Network Analyst • Medidas de separación Centros de vía (red), Mapa de accesibilidad • Integración nativa con sig • Licencia costosa
(Esri s.f.) espacial formato: *.nd a lote (sólamente ArcMap de Esri) • Es una extensión de Arcmap, por lo que
• Medidas de contorno Puntos (manzanas, Mapa de accesibilidad • Ámbito amplio requiere que éste se encuentre instalado
• Medidas de lotes, etcétera), de red • Permite simular diversos modos de • No es de plataforma independiente
competencia formato:*.shp Tabla de valores transporte • Tiempo de aprendizaje significativo
• Medidas espacio- • Relaciona de forma automática la red • No realiza medidas de red de forma
temporales con otras variables, permitiendo análisis automática**
• Medidas de utilidad complejos • Resultado de lectura compleja

Urban Network • Medidas de separación Centros de vía (red), Mapa de accesibilidad • Licencia gratuita • Aunque es gratuita es una extensión de
Analysis espacial formato: *.nd a lote • Integración nativa con sig (Solamente Arcmap, por lo que requiere que éste se
(Sevtsuk & • Medidas de contorno Puntos (manzanas, Mapa de accesibilidad Arcmap de Esri) encuentre instalado además Network Analyst
Mekonnen • Medidas de gravedad lotes, etcétera), de red • Ámbito amplio • No es de plataforma independiente
2012) • Medidas de formato:*.shp Tabla de valores • Permite simular diversos modos de • Tiempo de aprendizaje significativo
competencia transporte • Capacidad limitada a la robustez del hardware
• Medidas espacio- • Única herramienta que permite para análisis de sistemas grandes
temporales realizar medidas de red incluyendo las • Resultado de lectura compleja
• Medidas de utilidad característiscas de nodos adyacentes como
• Medidas de red los edificios, manzanas o lotes dentro del
cálculo

*Categorías conforme a lo expuesto por Scheurer y Curtis, "Accessibility, Mensures: Overview and Practical Applications" Workin Paper núm 4
**Sólamente cambios de dirección mediante código VB Script

35
06 07 08

06. Análisis de integración global de Ejemplo de aplicación: accesibilidad y oportunidades comerciales en la


segmentos de la delegación Félix
Osores, Querétaro
delegación Felix Osores, Querétaro
Fuente: Elaboración propia en Depthmap
A continuación se presenta la aplicación práctica de cuatro de las herramien-
07. Análisis de integración local a 1200
m de segmentos de la delegación Félix tas presentadas anteriormente: Depthmap, con un análisis de segmentos con
Osores, Querétaro ponderación de cambio angular; Mindwalk 2.0, con un análisis de accesi-
Fuente: Elaboración propia en Depthmap
bilidad a lote; Urban Network Analysis y Network Analyst, que se presentan
08. Análisis de selección de rutas combinadas para un análisis de acceso a oportunidades. Se estudia la ocu-
de segmentos de la delegación Félix
Osores, Querétaro rrencia de locales de uso comercial variable que ha presentado correlación
Fuente: Elaboración propia en Depthmap significativa con las localidades más accesibles en diversas ciudades.39, 40, 41, 42
Adicionalmente, ha demostrado ser un proceso emergente a pesar de los
esquemas de planeación rígida, de arriba hacia abajo (top-down), de algunas
ciudades, como la de México.43, 44
Se utiliza como área de estudio la delegación Félix Osores, una de las sie-
39 B. Hillier, “Cities as Movement Economies”,
Urban Design International, 1:1996, 41-60.
te que forman el municipio de Querétaro. La delegación tiene una extensión
40 K. Karimi, Organic Cities Unpacked: the de 3 933.75 hectáreas, que representan el 5.7 % de la extensión territorial
spatial logic of old cities in Iran and
England, 2003, pp. 1-19. del municipio. De acuerdo al inegi, cuenta con una población total de 164
41 A. Kasemsook, “Spatial Layout and 828 habitantes y una densidad bruta de 41.9 hab/ha, de manera que es la
Functional Patterns in Urban Areas: A Case
Study of Bangkok". Tesis de doctorado, delegación más poblada del municipio.45
The Bartlett School of Graduate Studies,
Londres, University College London, 2003. El análisis de segmentos con la primera herramienta, Depthmap, se basa en
42 L. Buendia, “Retail shop distribution in el trazo a mano del mapa axial de la delegación Félix Osores más una zona
interrupted orthogonal grids. The case of
Tijuana”. Tesis de maestría, The Bartlett de amortiguamiento o buffer de la zona circundante, compuesto por un total
School of Graduate Studies, Londres,
University College London, 2007.
de 7 412 líneas e importando al software en formato de intercambio vectorial
43 Claudia Ortiz Chao y B. Hillier, “In Search of (.dxf). Una vez dentro de la herramienta, se construye la red axial (ver imagen 1)
Patterns of Land-use in Mexico City Using
Logistic Regression at the Plot Level”, en para después construir el mapa de segmentos y analizarlos, posteriormente, con
A. Kubat, O. Ertekin, Y. Guney y E. Eyuboglu ponderación angular (ver la descripción en la sección anterior).
eds., 6th International Space Syntax
Symposium, itu, 2007. Se presentan tres análisis de centralidad: closeness, que considera todo el
44 Claudia Ortiz Chao, “Land Use Patterns
and Access in Mexico City”, en acsp-aesop sistema, llamado “integración global” en la herramienta (imagen 6); closeness
Fourth Joint Congress, Chicago, 2008. hasta un radio determinado, en este caso 1 200 m o “integración local 1 200 m”
45 inegi, Directorio Nacional de Unidades
Económicas (Denue), 2011. (imagen 7); betweeness o “selección de rutas”, también global (imagen 8; ver
imagen 2). La escala de color representa en colores más cálidos, que empiezan

36 Colección Textos FA o Tecnología


09 10 11

por el rojo, las líneas más accesibles o centrales, mientras que los colores más
09. Análisis de integración global y
fríos representan aquellos espacios menos accesibles o más segregados. Estas ubicación de comercio en la delegación
categorías están dadas por valores numéricos calculados por la herramienta con Félix Osores, Querétaro. Los puntos
resaltados indican locales comerciales
base en su conectividad como nodos de una red, como se explicó anteriormente. coincidentes con el 5% de segmentos
Se observa que los mapas de integración global (imagen 6) y selección de con mayor closeness centrality o
integración global
rutas (imagen 8) muestran como ejes más accesibles o centrales el Boulevard
Fuente: Elaboración propia en
Bernardo Quintana y la Avenida de la Luz, que corresponden a vialidades Depthmap
de mayor jerarquía. En segundo lugar aparecen otras como Avenida de las
10. Análisis de integración local y
Fuentes y la calle Tarahumaras. En cuanto a la integración local a un radio ubicación de comercio de la delegación
de 1 200 m –correspondiente a una jornada de 15 minutos a pie o 5 minutos Félix Osores, Querétaro. Los puntos
resaltados indican locales comerciales
en bicicleta,es decir, a una escala barrial (imagen 7)– se observan algunas coincidentes con el 5% de segmentos
zonas con concentraciones de líneas más cálidas, especialmente al norte de con mayor closeness centrality o
integración local en un radio de 1 200 m
Av. de La Luz, entre las colonias La Loma, Cerrito Colorado, Villas de Guada- Fuente: Elaboración propia en
lupe y Querena, alrededor de las calles Tarahumara y Kilwas/Monte Sión, así Depthmap
como entre las colonias Loma Bonita, Luis Donaldo, Libertadores y Rosendo
11. Análisis de selección de rutas y
Salazar, sobre todo a partir del cruce de la calle Río Grijalva con Cerro de la ubicación de comercio de la delegación
Cruz, Montes Escandinavos y Montes Urales. Félix Osores, Querétaro. Los puntos
resaltados indican locales comerciales
Estos mapas se relacionaron por medio del sig con los locales comerciales coincidentes con el 5% de segmentos
obtenidos de la información del Denue 201146. De acuerdo a dicho directorio, la con mayor betweeness centrality o
selección de rutas
delegación Félix Osores incluye 2 313 comercios presentados como puntos. A pe- Fuente: Elaboración propia en
sar de que es posible establecer cierta correspondencia entre las dos variables Depthmap
de manera visual (imágenes 9, 10 y 11), un análisis más preciso, por ejemplo
estadístico, requiere o bien un conteo manual de la recurrencia del evento o
variable, en este caso comercio, o un conteo que se auxilie de un sig que permita
relacionar objetos geográficamente con el uso de buffers. En este caso se usó el
segundo, el cual presenta la ventaja de ser rápido y relativamente automatizado,
pero cuya precisión depende de la calidad y precisión geográfica de los datos.
Posteriormente, se seleccionó el 5% de segmentos más centrales (9 550
segmentos) y mediante un buffer espacial con un radio de 20 m se selecciona-
ron los puntos comerciales correspondientes a dichos segmentos. La imagen 9 46 Idem.

muestra los resultados estadísticos entre el 5% de líneas más integradas global-

Análisis configuracional: forma urbana y procesos emergentes 37


mente y el comercio. De este análisis se observa que 83 de
2 313 comercios (3.58%) se encuentran sobre el 5% de las
calles más integradas. Por su parte, la imagen 10 muestra
los resultados estadísticos de la relación integración local
1 200 m y locales comerciales, en la cual se obtuvo como
resultado la selección de 863 puntos, que representa el
37.3% del total de comercio al por menor. Por último, el
análisis de selección de rutas (imagen 11) muestra una re-
lación de 234 comercios, que alcanzan cerca del 14% del
total de las líneas más utilizadas como rutas principales.
De estos análisis podemos corroborar que la presen-
cia de comercio busca las ubicaciones privilegiadas con
condiciones de accesibilidad, como indican las ideas de
Hillier. Podemos inferir la multiescalaridad de la ciudad
en el hecho de que encontramos coincidencia comercial
tanto en la escala global como en la local; puede deberse
en parte a que en esta muestra no se diferenció entre pe-
queño y gran comercio. Sin embargo, observamos que el
patrón más recurrente se da en la escala local (1 200 m)
pues sólo el 5% de segmentos más accesibles o centrales
concentran el 37.3% de la actividad comercial.
Para el análisis de accesibilidad a lote con Mindwalk 2.0
se partió del mapa axial de la delegación (al igual que en
el ejemplo anterior) más un layer que contenía los predios
como polígonos. El proceso más intenso fue construir la
12. Análisis de integración global de
accesibilidad a lote de la delegación red de ejes y lotes, ya que primero la herramienta debe
Félix Osores, Querétaro unir cada lote con aquella calle o calles que tenga en
Fuente: Elaboración propia en
Mindwalk frente; despues debe calcular las relaciones entre todos
estos elementos como nodos (ver imagen 3); finalmen-
te sólo se indica la medida que se desea mostrar. En la
imagen 12 se presenta el mapa de integración global (clo-
seness centrality, que considera todo el sistema) con la
misma escala de color que en Depthmap: rojo a azul de
mayor a menor accesibilidad o centralidad.
Se observa que la accesibilidad está concentrada en los
lotes que se encuentran sobre Av. de la Luz, sobre todo del
punto medio hacia el oriente (colonias Satélite, Lomas de
Satélite); esta cualidad permea hacia las calles perpendicu-
lares e incluso, aunque con menor intensidad, a las calles
en sentido norte-sur de la colonia Loma Bonita, al norte de
Lomas de Satélite, con manzanas prácticamente cuadradas.
Algunos grandes lotes del Parque Industrial Benito Juárez,
justo al oriente de Satélite, aparecen como accesibles por
su tamaño y ubicación: frente a más de una vialidad, lo
cual les confiere el carácter de “hiperconectividad” en esta

38 Colección Textos FA o Tecnología


representación. Sería así de tratarse de manzanas com-
pletamente permeables de una calle a otra, mas no es el
caso: son bloques con grandes estructuras construidas que
obstruyen la permeabilidad e incluso la visibilidad. En el
otro extremo del espectro, lo más segregado, aparece Jurica
(nororiente) y la zona de reciente creación al norponiente.
Al traslapar esta información con los locales comercia-
les y relacionarla geográficamente por medio del sig se
encontraron 385 puntos, equivalentes al 16.6% del total
de comercios, que coinciden con el 5% de predios con la
mayor accesibilidad global. Este análisis rápido muestra la
efectividad de esta representación para capturar con aun
mayor detalle la influencia de la configuración en los patro-
nes de localización de usos comerciales, ya que la corres-
pondencia con la centralidad global más alta es del 16.6%
contra 3.58% en el análisis de segmentos. Adicionalmente,
el hecho de que el cálculo se realice a nivel de lote permite
relacionar de manera relativamente sencilla, si se maneja
algún sig, cualesquiera capas de información a los predios.
Por útlimo, se utilizan las herramientas Urban Network
Analysis y Network Analyst para ejecutar un análisis de
oportunidades acumuladas (contornos). Se consideraron
diferentes modos de transporte, la bicicleta y el autobús,
y el comercio como oportunidad.
El criterio para identificar el origen del análisis combinó
13. Análisis de integración global y
población y centralidad por manzana dentro de la dele- ubicación de comercio de la delegación
gación. Primero, las manzanas se filtraron a partir de su Félix Osores, Querétaro. Los puntos
resaltados indican locales comerciales
población total; se seleccionaron únicamente aquéllas cuya coincidentes con el 5% de lotes con
población total se encuentra por encima de la mediana de la mayor closeness centrality o integración
global
muestra, que en este caso fue de 88. El siguiente paso con- Fuente: Elaboración propia en Mindwalk
sistió en ejecutar un análisis de closeness centrality dentro
de una. En la imagen 14 se observan los resultados de dicho
análisis: las manzanas en rojo son las que tienen mayores
niveles de centralidad. Finalmente, se escogieron las manza-
nas con mayores niveles de closeness centrality y se encontró
aquella que tuviera el mayor número de habitantes. Dicha
manzana se eligió como origen de los contornos para medir
las oportunidades acumuladas (imagen 15). De esta forma el 47 "La simulación es el proceso de diseñar un
modelo de un sistema real y llevar a término
origen es significativo debido al número de habitantes que experiencias con él, con la finalidad de
representa; es un punto central, lo cual presupone un alto comprender el comportamiento del sistema
o evaluar nuevas estrategias dentro de los
desempeño en términos de transporte; tiende a alejarse de límites impuestos por un cierto criterio o un
conjunto de ellos –para el funcionamiento
los límites, lo que reduce la influencia de factores exógenos. del sistema”, R. Shannon y J. D Johannes,
Para relacionar dichos modos de transporte con los lo- “Systems Simulation: The Art and Science",
Systems, Man and Cybernetics, ieee
cales comerciales fue necesario realizar una simulación47, Transactions On (10): 1976, pp.723-724.
con na, que permitiera reproducir la forma en que cada

Análisis configuracional: forma urbana y procesos emergentes 39


modo posibilita a los usuarios desplazarse. Para ello se definieron atributos,
costos y restricciones para cada modo de transporte. Los costos son valores
que se tratan de economizar –reducir–, como el tiempo; los atributos son
características propias de cada modo de transporte, por ejemplo la velocidad;
las restricciones son acciones que no se permiten en determinada situación, por
ejemplo una calle peatonal es una vía restringida para el paso de automóviles.
Los criterios utilizados para el análisis se especifican en la tabla 2.

Tabla 2. Criterios base de simulación


Bicicleta
Valor Indicador Fuente
Atributos Velocidad promedio de un Instituto de Políticas para el
ciclista (15 km/hr) Transporte y el Desarrollo (itdp
Sentido de calles por sus siglas en inglés)
Google Earth/Street View
Restricciones Pendientes pronunciadas Elaboración propia
(mayores a 15%) Elaboración propia
Fraccionamientos cerrados y
áreas urbanas privativas

Autobús

Atributos Velocidad permitida Elaboración propia


Velocidad hora pico (16 km/hr) Encuesta origen-destino, Direc-
Sentido de calles ción de Transporte del Estado
de Querétaro
Google Earth/Street View
Costos Tiempo promedio de espera en Encuesta origen-destino, Direc-
paradas formales ción de Transporte del Estado
de Querétaro
Restricciones Calles peatonales Elaboración propia
Calles sin servicio de transporte Diseño de rutas, Dirección
público de Transporte del Estado de
Calles dentro de fraccionamien- Querétaro
tos cerrados Elaboración propia

40 Colección Textos FA o Tecnología


14 15
14. Manzanas con población total
por encima de la mediana y su grado
Una vez lista la simulación, se definió el tiempo de viaje para crear los
de closeness centrality. Entre más
contornos de los diferentes modos de transporte. Ya que no existe una meto- cálido es el color, más central es la
dología rigurosa para la determinación de dicho tiempo, se optó por utilizar manzana; las manzanas en color gris
no se consideraron en el cómputo de
una medida de tiempo empírica, sustentada en el principio de peatonalidad centralidad.
del Nuevo urbanismo. Este principio establece que la mayoría de las cosas Fuente: Elaboración propia
deberían encontrarse a una caminata no mayor a 10 minutos desde el hogar 15. Población total de las manzanas con
o el trabajo, lo cual fomenta una morfología compacta y diversa.48 mayores niveles de closeness centrality.
Entre más intenso el color rojo, mayor el
A partir de los criterios expuestos se representó los contornos sobre la red número de habitantes de la manzana.
y se identificó el acceso a oportunidades ofrecido por los diferentes modos Fuente: Elaboración propia
de transporte. La imagen 16 muestra las oportunidades de comercio alcan-
zadas en 10 minutos en bicicleta. Un ciclista alcanza, en 10 minutos, 1933
oportunidades de comercio, que equivale al 65.39% de las oportunidades
totales de comercio ofertadas en la delegación; mientras que una persona
que viaja en autobús en hora pico (imagen 17) únicamente tiene acceso a 48 NewUrbanism, “New Urbanism Principles”,
206 oportunidades de este tipo, es decir, al 6.96% del total ofertado. A pesar consultado el 12 agosto del 2013 http://
www.newurbanism.org/newurbanism/
de que 40 rutas de autobús prestan servicio en la delegación Félix Osores49, principles.html
49 ITDP y Gobierno del Estado de Querétaro,
la bicicleta ofrece un acceso superior en 9:1 respecto al autobús en hora “Informe No. 2 Propuesta de Diseño
pico. La relevancia de esto radica en que sugiere la ineficiencia de la actual Funcional y Operacional Detallado de La
Red de Rutas de La Zona Metropolitana de
configuración de rutas de transporte público y la viabilidad de inversión en Querétaro – ZMQ”, 2011.
infraestructura ciclista.

Análisis configuracional: forma urbana y procesos emergentes 41


16. Oportunidades de comercio 17. Oportunidades de comercio
alcanzadas en 10 minutos en bicicleta alcanzadas en 10 minutos en autobús
a partir del origen. Las oportunidades en hora pico a partir del origen. Las
alcanzadas aparecen en color naranja, oportunidades alcanzadas aparecen en
mientras que aquéllas que quedaron color naranja, mientras que aquéllas que
fuera del área de cobertura (contorno) quedaron fuera del área de cobertura
se muestran en color blanco (contorno) se muestran en color blanco.
Fuente: Elaboración propia Las líneas en color verde representan
las vías por donde pasa al menos una
ruta de autobús
Fuente: Elaboración propia

42 Colección Textos FA o Tecnología


Si bien estos resultados no consideran los hábitos de más complejas, por su parte, permiten un mayor número
viaje de las personas, es decir, no toman en cuenta que de variables y cálculos más especializados, pero exigen
personas de diferentes grupos de edades tienen un en- más recursos de todo tipo, como la inversión de tiempo
cadenamiento50 de viajes particular, sí evidencian que la para entender el manejo de la propia herramienta y los
actual configuración del binomio transporte-uso de suelo resultados.
en esta delegación ofrece un acceso precario a oportuni- Sin embargo, debe observarse que éstas y la mayoría de las
dades a las personas que utilizan el autobús como princi- herramientas disponibles están soportadas por fundamentos
pal medio de transporte. teóricos sólidos, los cuales deben comprenderse en profun-
Las herramientas Urban Network Analysis y Network didad antes de utilizar cualquier herramienta. De lo contrario
Analyst permiten ejecutar análisis que van más allá de se corre el riesgo de usar este tipo de software como “cajas
las medidas de red. En este caso se combinaron con me- negras”, en las que se ignora por completo el procedimien-
didas de contorno (oportunidades acumuladas), pero la to que sucede entre proveer el insumo y oprimir enter para
principal aportación de dichas herramientas es, sin duda, obtener un mapa como resultado. Aunque los resultados
la capacidad de internalizar características de los lotes o gráficos están pensados precisamente para ser intuitivos y
edificios en la representación y análisis de la red; esto per- fáciles de comprender, son producto de la calidad de los in-
mite estudios mucho más complejos, no necesariamente sumos (datos correctos y actualizados; su buena abstracción
aislando la influencia de la configuración sino más bien y representación) y requieren de una buena interpretación
tomándola sólo como un factor entre otros. Sin embargo, (comprensión de la teoría y las características del caso de
el hecho de que se necesite contar con una licencia de estudio). Si se desatiende lo primero, puede ocurrir una in-
ArcMap eleva significativamente los costos de operación, terpretación errónea de resultados; si lo segundo, la entrada
lo cual impide que el uso de esta extensión se popularice de insumos inapropiados, mal construidos, mal calibrados
y hace que el intercambio de información sea, por decir lo o que no cumplen con los requerimientos para el análisis
menos, problemático. redundaría en resultados equivocados que anularan todas las
ventajas que tales aproximaciones proporcionan.
Conclusiones Por otro lado, no debe olvidarse que estas representa-
ciones son abstracciones de la realidad. Si bien nos ayudan
En este capítulo se revisaron algunas de las herramientas a capturar y desentrañar algunas capas de los procesos
disponibles y consideradas útiles por los autores para el complejos que forman la realidad urbana, no representan
análisis de accesibilidad espacial de entornos urbanos, la realidad completa. La ciudad es el artefacto más com-
con un enfoque primordialmente de red; el problema de plejo que ha creado el hombre. Quienes nos dedicamos
relacionar la ciudad con las variables sociales y económi- a estudiar o trabajar con la ciudad debemos recordar que
cas referentes a los procesos de la ciudad nos llevó a in- es un sistema dinámico, de procesos emergentes que no
cluir algunas otras provenientes de los sig, con enfoques se pueden capturar en un solo plano estático. Intentemos
y aptitudes más amplios, como los análisis de oportuni- más bien decodificarla.
dades acumuladas.
Como pudo apreciarse, a diferencia de algunas déca-
das atrás, la oferta de herramientas es amplia y muy va-
riable. La elección de la herramienta adecuada depende
del tipo y complejidad del análisis e investigación que
se requiera, así como de la información y condiciones
con que se cuente. Algo que se hace evidente en esta 50 “Una cadena de viajes es una secuencia
de viajes ligada por paradas de 30 minutos
revisión es que las herramientas más sencillas requieren o menos” McGuckin y Nakamoto, "Trips,
de menores recursos económicos, tecnológicos y huma- Chains and Yours-Using on Operational
Definition", ponencia presentada en nhts
nos, además de que los resultados son más fácilmente Conference, noviembre, 2004, p. 1.
legibles para cualquier tipo de usuario. Las herramientas

Análisis configuracional: forma urbana y procesos emergentes 43


Referencias

Alexander, C. "A city is not a tree", Ekistics 23, 1967, 344‐348.


Batty, M. y P. Longley. Fractal Cities. A Geometry of Form and Function. Londres:
Academic Press, 1994.
Batty, M. "Cities as Complex Systems. Scaling, Interactions, Networks, Dynamics
and Urban Morphologies", The Encyclopedia of Complexity & System Science.
Berlín: Springer, 2008.
Buendia, L. "Retail shop distribution in interrupted orthogonal grids. The case of
Tijuana". Tesis de maestría. The Bartlett School of Graduate Studies. University
College London, 2007.
Esri. Network Analyst. www.esri.com [s.f.e]
Figueiredo, L. Mindwalk. Recife [sin publicar].
Figueiredo, L. y L. Amorim. "Continuity Lines in the Axial System". Fifth Space
Syntax International Symposium. Delft: Delft University of Technology, 2005.
Figueiredo, L. y C. Ortiz Chao. 2012. "Análisis Configuracional del Entorno
Construido", Cuadernos de Arquitectura y Nuevo Urbanismo. Del Transecto y
el Análisis de Conectividad, 6: 10, 2012.
Guzmán, U. X. La accesibilidad como instrumento de evaluación de los modos de
transporte: La temporalidad y el acceso a las oportunidades. Querétaro: Tecno-
lógico de Monterrey Campus Querétaro, 2005.
Hillier, B. "Cities as Movement Economies", Urban Design International 1, 1996,
41-60.
"The Hidden Geometry of Deformed Grids: or, why space syntax works,
when it looks as though it shouldn’t", Environment and Planning B: Planniing
and Design 26, 1999, 169-191.
Hillier, B. y J. Hanson. The Social Logic of Space. Cambridge: Cambridge Univer-
sity Press, 1989.
Hillier, B., A. Penn, J. Hanson, T. Grajewski y J. Xu. "Natural Movement: or, Confi-
guration and Attraction in Urban Pedestrian Movement", Environment and Plan-
ning B Planning and Design 20 (1), 1993, 29‐66.
Hillier, B. y S. lida. "Network and psychological effects: a theory of urban move-
ment", Spatial Information Theory, 3603, 2005, pp. 473-490.
Hillier, B. y O. Sahbaz. "High Resolution Analysis of Crime Patterns in Urban Street
Networks: an initial statistical sketch from an ongoing study of a London bo-
rough", Fifth Space Syntax International Symposium. Delft: Delft University of
Technology, 2005.
Instituto Nacional de Estadística, Geografia e Informática (inegi). Directorio Na-
cional de Unidades Económicas (Denue). http://www3.inegi.org.mx/sistemas/
mapa/denue/default.aspx [Consultado en 2011].
itdp (Institute for Transportation and Development Policy) y Gobierno del Estado
de Querétaro. Informe Núm. 2. Propuesta de Diseño Funcional y Operacional
Detallado de La Red de Rutas de La Zona Metropolitana de Querétaro – zmq,
2011.

44 Colección Textos FA o Tecnología


Karimi, K. Organic Cities Unpacked: the spatial logic of old cities in Iran and
England, s.p.i., 1-19, 2003.
Kasemsook, A. "Spatial Layout and Functional Patterns in Urban Areas: A Case
Study of Bangkok". Tesis de doctorado.The Bartlett School of Graduate Studies.
University College London, 2003.
McGuckin, N. y Y. Nakamoto. "Trips, Chains and Tours – Using an Operational
Definition". Ponencia presentada en nhts Conference, noviembre 2004.
Moudon, A.V. "The evolution of twentieth-century residential forms". En Urban
Landscapes, J.W.R y Larkham Whitehand eds. Serie "Routledge geography and
environment". Londres y Nueva York: Routledge, 1992.
NewUrbanism. "New Urbanism Principles". http://www.newurbanism.org/newur-
banism/principles.html. [Consultado el 12 de agosto del 2013].
Ortiz Chao, Claudia y B. Hillier. "In Search of Patterns of Land-use in Mexico City
Using Logistic Regression at the Plot Level". En 6th International Space Syntax
Symposium, A. Kubat, O. Ertekin, Y. Guney y E. Eyuboglu eds. itu, 2007.
Ortiz Chao, Claudia. "Land Use Patterns and Access in Mexico City", en acsp-
aesop Fourth Joint Congress, Chicago, 2008.
Porta, S., P. Crucitti y V. Latora. "The network analysis of urban streets: a dual
approach", Physica A: Statistical Mechanics and its Applications, 369(2), 2006,
853-866.
Scheurer, J. y C. Curtis. "Accessibility Measures: Overview and Practical Applica-
tions". Working Paper núm. 4, marzo. Urbanet. Curtin University, 2007
Sevtsuk, A. "Path and Place: A Study of Urban Geometry and Retail Activity in
Cambridge and Somerville, ma". Tesis de doctorado. Department of Urban Stu-
dies and Planning. mit, 2010.
"Urban Network Analysis. A new toolbox for ArcGIS", Revue Internationale de
Géomatique, 22(2), 2012, 287-305.
"Urban Network Analysis: A Toolbox for ArcGIS
10/10.1.", [s.p.i] 2012.
Shannon, R. y J. D. Johannes. "Systems Simulation: The Art and Science". Systems,
Man and Cybernetics, ieee Transactions On 10, 1976, 723–724.
Siksna, A. "City Centre Blocks and their Evolution: A Comparative Study of Eight
American and Australian cdbs", Journal of Urban Design 3, 1998, 253‐284.
Space Syntax. ucl Space Syntax Software Manuals. Space Syntax / ucl, 2004.
Stahle, A., L. Marcus y A. Karlstrom. "Place Syntax - geographic accessibility with
axial lines in gis", Fifth Space Syntax International Symposium. Delft: Delft Uni-
versity of Technology, 2005.
Turner, A. Depthmap. Londres: University College London, 2004.

Análisis configuracional: forma urbana y procesos emergentes 45


De la fotografía al modelo tridimensional

Geneviève Lucet

Introducción

El ser humano siempre ha necesitado representar su mundo, los territorios, los


recursos naturales, las ciudades, las construcciones y los objetos en general.
Con el afán de hacerlo cada vez mejor ha desarrollo instrumentos, técnicas y
metodologías con las cuales medir, y ha definido códigos de representación
para plasmar en soportes planos el mundo tridimensional; en este resultado
se conjuntan conocimientos científicos y tecnológicos relativos a diferentes
disciplinas. El registro de las edificaciones, con su forma y dimensiones con
la mayor exactitud posible, proporciona la descripción de su estado y es la
fuente primaria de información para su estudio. Por su lado, la fotografía ha
sido siempre vista como una herramienta “neutra” u “objetiva” para plasmar
el mundo real en un documento. En este marco se inserta la fotogrametría
digital como una solución para medir y definir en tres dimensiones lo visible
utilizando fotografías y su procesamiento con sistemas de cómputo.
La fotogrametría digital es la síntesis del largo proceso evolutivo de los
conocimientos de la óptica, la geometría, la perspectiva, el cómputo gráfico,
el procesamiento digital de imágenes y la visión por computadora. Esta tec-
nología nació en el siglo xix y en estos últimos años añadió a su ya recono-
cida precisión la capacidad de producir resultados en tres dimensiones y de
registrar las características de color y textura en las superficies de los objetos.
Actualmente la podemos considerar de bajo costo, además de que no de-
manda conocimientos sólidos en ingeniería y matemáticas para obtener con
precisión las medidas de los objetos o construcciones y sus planos; tampoco
lo requieren las ortofotos de las fachadas o su descripción volumétrica, es
decir la representación y visualización de aquéllas con técnicas digitales.
Por estas razones se ha extendido su uso para el levantamiento de edificios
y ciudades y en las áreas ligadas al registro de los monumentos históricos.
En las siguientes páginas haré un breve repaso histórico para mostrar
cómo una solución tecnológica ha evolucionado en paralelo a los cono-
cimientos científicos y al desarrollo industrial, a la vez que expondré los

47
01. Durero, Método para copiar un fundamentos de esta técnica y los retos que se han tenido que superar para
corpus, aumentar o disminuir su talla
llegar al momento actual de la fotogrametría digital. Luego revisaré las carac-
Fuente: http://sarkerprotick.files.
wordpress.com/2012/08/nadar- terísticas de los programas de cómputo describiendo los procesos de trabajo,
elevating-photography.jpg desde la toma fotográfica inicial hasta la obtención de ortofotos y de modelos
tridimensionales; será de una manera genérica para que esta lógica pueda
adaptarse a la mayoría de los programas de cómputo desarrollados para la
fotogrametría. Finalmente, veremos algunos ejemplos de su uso en arquitec-
tura, principalmente para la documentación del patrimonio arquitectónico.

Historia: de la fotografía al fotomodelado

Una fotografía es la proyección de un objeto tridimensional sobre un plano


bidimensional. Cuando se toman varias fotografías desde diferentes puntos de
vista nos acercamos a una mejor comprensión del volumen; si las tomas se rea-
lizan con un orden estratégico alrededor del objeto, obtenemos una secuencia
fotográfica que permitirá reconstruir la forma tridimensional del mismo, y si
se toman referencias de medidas tendremos su escala y podremos obtener las
dimensiones de cada una de los componentes del objeto; así se posibilita la
reconstrucción de la tridimensionalidad a partir de fotografías.
La reconstrucción digital de un objeto está basada en una metodología
tecnológica y científica que consiste en reconocer los puntos coincidentes
entre las diferentes imágenes, entender dónde estaban las cámaras fotográfi-
cas con relación al objeto y ubicar cada uno de los pixeles de las fotografías
en el espacio. Dado que cada pixel representa una porción de la superficie
del objeto, se logra así una representación volumétrica de lo visible. Este
proceso combina tres componentes que han tenido su propia evolución his-
tórica: 1) el desarrollo de la tecnología de la fotografía; 2) las bases científicas
para la modelación matemática de la deformación óptica y de la perspectiva
con el fin de reencontrar la ubicación espacial de los puntos importantes de
los objetos; 3) los medios de la representación, de lo analógico a lo digital, y
las herramientas para lograrlo.
El antecedente más lejano se encuentra en el desarrollo de la perspectiva,
cuando se hace conciencia de la posibilidad de plasmar sobre un plano de
manera precisa la representación espacial. Dicho desarrollo consiste en un

48 Colección Textos FA o Tecnología


proceso matemático para generar la imagen gráfica que relaciona lo que se ve,
es decir la óptica, con su representación, mediante la geometría. Se entiende
que un objeto es visible por los rayos de luz que rebotan sobre su superficie y
en línea directa llegan al ojo; por la forma piramidal de la visión, los objetos
lejanos se representan más pequeños y las líneas paralelas se unen en puntos
de fuga en el horizonte.
En 1839, Niepce, Daguerre y Talbot inventan la fotografía, una técnica que
registra las perspectivas sobre una placa. Aimé Laussedat, considerado por
muchos como el padre de la fotogrametría, había tenido previamente la idea
de utilizar una representación en perspectiva para generar un documento
métrico; para que estas perspectivas fueran exactas utilizaba la “cámara lú-
cida”1 desarrollada por Wollaston en 1806, luego mediante dibujos y trazos
obtenía las planimetrías. Cuando se desarrolla la fotografía, la utiliza en vez
de dibujos sin cambiar en esencia su método, y llama esta forma de trabajo
como metrofotografía. Lo emplea para la representación precisa de fachadas y,
posteriormente, logra aplicarlo a levantamientos topográficos. En 1849 utiliza
sus métodos para el levantamiento de l’Hôtel des Invalides, en París; un año
después lo hace con el Castillo de Vincennes, a partir de varias perspectivas.
Unos años más tarde tiene la idea de colgar la cámara de un globo para tomar
fotos aéreas y así crear mapas urbanos. Empero, el primero en subirse a un
globo de aire caliente para tomar fotografías aéreas fue Nadar, quien sobre-
voló Paris en 1858 y es considerado como el pionero de la fotografía aérea.

02. Caricatura de Nadar tomando


fotografías aéreas
Fuente: http://sarkerprotick.files.
wordpress.com/2012/08/nadar-
elevating-photography.jpg

1 Instrumento para dibujar: mediante un


sistema de espejos se logra combinar la
imagen de lo que se observa con lo que
se dibuja.

De la fotografía al modelo tridimensional 49


En paralelo, el arquitecto Albrecht Meydenbauer, encargado de hacer levan-
tamientos de edificios para el registro del patrimonio de Prusia en 1858, se da
cuenta de las ventajas del uso de la fotografía para este trabajo, sobre todo para
evitar riesgos al medir las torres de las iglesias, de forma que desarrolla sus
propios métodos. Observa lo limitado de las cámaras y fabrica la suya, con la
cual, en 1867, logra demostrar la precisión y eficacia de la fotogrametría para
el levantamiento arquitectónico, trabajo que hizo para el registro topográfico
de la iglesia de Freiburg-in-Unstrut. Con esta experiencia, publica un artículo
en el que por la primera vez se utiliza el término fotogrametría. Es hasta 1880,
después de numerosas pruebas para validar la precisión del método, que el
gobierno prusiano reconoce esta técnica para la documentación de monumen-
tos, lo cual deriva en la creación del Instituto Real Prusiano de Fotogrametría.2
Ambos inventores, Laussedat y Meydenbauer, supieron aprovechar la foto-
grafía en sus orígenes para atender la imperiosa necesidad de hacer un registro
preciso de las construcciones, razón que los motivó a desarrollar esta tecnología.
Paralelamente, Wheastone desarrolla en 1832 la visión del relieve a partir
de dos dibujos, la visión estereoscopía, y en 1844 Brewster idea el método
para hacer lo mismo a partir de fotografías. Consiste en mostrar a través de
un visor dos imágenes tomadas con una pequeña distancia; cada imagen
va al ojo que le corresponde y genera la ilusión de tridimensionalidad. Este
invento tuvo un éxito inmediato.3
Más adelante, en 1896, Edouard Deville inventa el primer equipo para proce-
sar la información gráfica a partir de fotografías. A pesar de ser un notable avance,
el paso decisivo se da en 1905, cuando Von Orel procesa las perspectivas utili-
zando la estereoscopía. Construyó un aparato “restituidor” que permitía transferir
los puntos marcados por un operador sobre las fotografías a una hoja de papel.
Durante varios años la metroscopía y la fotogrametría con restituidor fue-
ron utilizadas por los arquitectos e ingenieros, hasta que finalmente la pri-
mera fue abandonada y solamente se trabajó con imágenes estereográficas.
Esta primera etapa, conocida como la fotogrametría analógica, mejoró en las
décadas siguientes por la calidad óptica de las cámaras, por los sistemas matemá-
ticos para definir de manera abstracta las distorsiones de la óptica de la cámara
2 insa, “Photogrammétrie: historique”.
y las condiciones de la perspectiva y por un dominio creciente de la tecnología
http://www.insa-strasbourg.fr/fr/ en general. El sistema era complejo y laborioso, pero generó un principio que
historique-topographie/ [Consultado el 29
de junio de 2013]. se mantuvo vigente hasta la aparición de las computadoras.4
3 Jean-Paul Saint Aubin, Le relevé et la La segunda etapa conocida como de la fotogrametría analítica inicia en
représentation de l’architecture, Inventaire
général, spadem; Inventaire général des 1957 gracias al surgimiento de los sistemas de cómputo que fueron aprove-
monuments et des richesses artistiques
de la France, documents et méthodes 2; chados para el cálculo de las coordenadas de los objetos en el mundo real to-
Association Etudes, Loisirs et Patrimoine, mando en cuenta los diferentes parámetros que definían la óptica de la cáma-
1992.
4 Livio De Luca, La photomodélisation ra y los puntos marcados sobre las fotografías. Para estos cálculos se desarrolló
architecturale. Relevé,modélisation et
représentation d´édifices à partir de el sistema de representación matricial5 para identificar los parámetros. Poco
photographies, Eyrolles, París, 2009. después se incorporaron los sistemas cad y se construyeron estaciones de tra-
5 La matriz es una representación
matemática bidimensional particularmente bajo equipadas específicamente. El operador tenía lentes especiales para ver
eficaz para describir ecuaciones. en tercera dimensión a partir de dos fotografías; podía señalar con precisión
puntos y a partir de ellos dibujaba mediante los programas especializados; de

50 Colección Textos FA o Tecnología


hecho se trataba de la versión digital de la forma de trabajar con restituidor.
Más tarde se empezó a trabajar de manera más digital, las fotografías seguían
siendo tomadas con cámaras métricas y eran digitalizadas por medio de escá-
neres especiales muy costosos, que requerían de un elaborado y cuida-doso
proceso de calibración. Realizar estos trabajos implicaba formación de inge-
niero en fotogrametría y equipo como cámaras métricas, estaciones de trabajo
y software diseñado espacialmente para este fin. La fotogrametría, en esas con-
diciones, seguía siendo una tecnología exclusiva para instituciones con los
recursos necesarios.
Finalmente, a finales del siglo xx entramos en la fase de la fotogrametría
digital, cuando todo el proceso desde la captura inicial hasta los resultados
finales fueron digitales. Fue necesario que la cámara digital adquiriera más
calidad y que se desarrollara formas totalmente novedosas de procesamiento
gracias a la incorporación de las técnicas del cómputo gráfico6. Los nuevos
programas estuvieron enfocados hacia la producción cinematográfica. Paul De-
bevec desarrolló en 1996 una técnica que denominó "Image-Based Modeling
and Rendering",7 la cual consiste en relacionar volúmenes sencillos con lo que
el usuario observa en las fotografías; calcular automáticamente la perspectiva
y la ubicación de las cámaras; y recortar en las imágenes las texturas corres-
pondientes a cada polígono. Gracias a su alto realismo, los resultados son muy
espectaculares: se logra volúmenes con la riqueza de color y de iluminación
de las fotografías originales, las cuales pueden manipularse en tiempo real.
Sin embargo no es un trabajo preciso en cuanto a la obtención de dimensiones.
A estos desarrollos se sumaron hacia finales del milenio las técnicas de visión
por computadora y de fotogrametría.
A la vez que se integraban estas importantes tecnologías, cada una aporta-
ba conocimientos complementarios. La fotogrametría trajo su preciso mane-
jo de la óptica para calibrar una cámara y revertir la deformación del mundo,
real o tridimensional, cuando se plasma sobre un fotografía; también aportó
el modelado matemático de la transformación geométrica, necesaria para
reconstruir volúmenes a partir de la perspectiva en una gráfica. Por su parte,
el cómputo gráfico aportó la visualización geométrica en el espacio y la
extracción de texturas en las fotografías. La visión por computadora utilizó
sistemas de inteligencia para comparar imágenes mediante la detección de
pixeles que corresponden al mismo objeto representado en varias imágenes,
de forma que se reconocen las figuras. 6 El cómputo gráfico se define como
la creación de imágenes con una
En este proceso se han ido incorporado algoritmos a aquellos que se utiliza- computadora a partir de cálculos aplicados
ban en un principio. El último paso que cambió la calidad del resultado, porque a un conjunto de datos. Es a partir de 1970
que esta área empezó un fuerte desarrollo,
proporcionó una mayor cantidad de información tridimensional, consistió en sobre todo para crear animaciones a partir
de modelos tridimensionales.
trabajar directamente en el nivel de cada uno de los pixeles que aparecen en las 7 siggraph y Paul Debevec. “Image-based
fotografías. Así, se ubican en el espacio y en la coordenada que les corresponde modeling and rendering course notes
15: siggraph 98 ”, 25th International
para conformar una nube de puntos, de manera que en la computadora esas on Computer Graphics and Interactive
Techniques, Association for Computing
fotografías se vuelven un cuerpo tridimensional con toda la calidad descriptiva Machinery, del 19 al 24 de Julio, 1998,
que le puede caracterizar; es una técnica que llegó al mercado amplio hacia Orlando, Florida, eua.
2009 y que sigue en desarrollo.

De la fotografía al modelo tridimensional 51


03

Lo que ofrece la fotogrametría

La fotogrametría es ahora una técnica digital que nos permite obtener dos
tipos de representaciones gráficas, las ortofotos y los modelos tridimensiona-
les, los cuales pueden ser procesados para obtener mediciones y representa-
ciones más tradicionales.
La ortofoto es una representación plana a escala y sin distorsión de un objeto
fotografiado, y se utiliza principalmente para obtener fachadas o mapas aéreos.
Es un documento preciso donde los objetos son medibles con una exactitud
que depende del tamaño de la superficie cubierta por cada pixel, la cual puede
llegar a ser submilimétrica. El procesamiento consiste en corregir la distorsión
creada por la óptica y en eliminar los efectos de perspectiva. Luego las foto-
grafías se ensamblan para lograr una sola imagen de gran tamaño. Algunos
programas de cómputo incluyen opciones para añadir a estas imágenes las
curvas de nivel y las alturas.
Los modelos tridimensionales son representaciones volumétricas de los ob-
jetos. Para obtenerlos contamos con los programas de cómputo que permiten
la creación de modelos tipo cad, es decir polígonos y entidades volumétricas
simples (cubos, conos y mallas con pocos vértices). Éstos son modelos simplifi-

03. Modelo poligonal con textura


obtenido con fotogrametría. Edificio
B del sitio arqueológico de Cacaxtla
Fuente: Araceli Casas y Geneviève
Lucet, 2009

04. Pintura mural del sitio


arqueológico Las Higueras, estructura
reconstruida en el Museo de
Antropología de Xalapa. Izquierda:
fotografía original; derecha: ortofoto.
Fuente: Geneviève Lucet–Iraís
Hernández Ortíz, 2013

04

52 Colección Textos FA o Tecnología


cados como los que se emplean muchas veces para la representación de arqui-
tectura cuando no se detallan las deformaciones de las superficies. Dichas
figuras geométricas se pueden enriquecer con texturas tomadas directamente
de las fotografías, lo cual, además de darnos información sobre materiales y
color, nos proporciona la idea de los detalles en los volúmenes; es un truco
visual, pues en realidad tales texturas no se han definido en tres dimensiones.
Los programas que procesan nubes de puntos a partir de los pixeles o con
datos provenientes de un escáner tridimensional logran un registro de formas
complejas como bajorrelieves, muros arrumbados, fisuras y grietas, deforma-
ciones estructurales o de acabados. A partir de estas nubes se crean modelos de
superficie con mallas que moldean y representan perfectamente a los objetos.

05. Nube de puntos del Chacmol de


Tenochtitlán
Fuente: Araceli Casas, 2011

05

06. Cabeza del Chacmol como nube de


puntos, malla tridimensional y con texturas
Fuente: Araceli Casas, 2011
06

De la fotografía al modelo tridimensional 53


Programas y técnicas actuales

Como vimos en el breve recorrido histórico de la fotogrametría, las técnicas desa-


rrolladas inicialmente aplicaron conocimientos de ingeniería, cálculo geométrico
y de corrección óptica; luego incorporaron otros desarrollos provenientes de la
representación gráfica por computadora, donde lo visual ha sido el criterio domi-
nante, pues incluyen las texturas de color y el realismo de la iluminación. En los
programas actuales encontramos estas dos tendencias de acuerdo a sus objetivos
y alcances, donde puede dominar lo visual o lo preciso, y donde la integración
de las técnicas de visión por computadora se hace con distintos grados. Por esta
razón, algunos programas se autodefinen como de fotogrametría mientras otros
se asumen como modeladores a partir de fotografías.
Actualmente contamos con numerosos programas de fotogrametría y exis-
ten también servicios disponibles en Internet que reciben las fotografías, las
procesan directamente y regresan al usuario los archivos con las nubes de
puntos. Estas alternativas obligan a analizar las características y posibilidades
antes de escoger un programa. Las posibilidades de los programas varían por
la cantidad de imágenes que pueden procesar; su tipo: fotografías, video, lidar;
los resultados: ortofoto, modelo 3d, animaciones, visualización en tiempo
real; la geometría final: polígono, nubes de puntos; los formatos de los archi-
vos. Mientras que algunos serán más automáticos, otros requieren de mayor
intervención del usuario. Asimismo, las interfaces son un factor importante al
momento de seleccionar una herramienta, pues mientras algunos programas,
como MicMac8 funcionan solamente a partir de líneas de comando, otros,
como PhotoScan9, tienen interfaces que resultan más amables o intuitivas.
Para hacer una adecuada selección hay que saber distinguirlos y reconocer
los objetivos para los que fueron desarrollados. Existen programas que buscan
la producción rápida de modelos para Internet, los cuales pueden ser muy
sencillos debido a que su precisión métrica no es importante y no requieren
de muchos detalles; para estos programas lo importante es el impacto visual
y obtener archivos de tamaño reducido, con los que se pueda interactuar sin
complicaciones. Algunas cámaras fotográficas ya incorporan herramientas
similares; igualmente se ha desarrollado un mercado que consiste en realizar
modelos rápidos para su construcción tridimensional por estereolitografía,
en cuyo caso lo importante es la congruencia del volumen final: la superficie
debe quedar cerrada, sin huecos ni protuberancias muy marcadas.
La fotogrametría digital se ha empleado también en el cine para crear
efectos especiales, representar escenarios existentes en el mundo real y mez-
clarlos con escenas virtuales. Uno de sus primeros usos fue en la película The
Matrix en 1999, cuyo elemento conductor es el engaño visual. En este caso,
la calidad del realismo visual es el factor determinante; ambos escenarios,
el real y el virtual, deben poder intercambiarse sin que se note la diferencia.
8 ign, “MicMac”, http://www.micmac.ign.fr/
[consultada el 4 de agosto de 2013]. Para la arquitectura, el objetivo principal de la fotogrametría es la medi-
9 Agisoft, “PhotoScan”, http://www.agisoft.
ru/ [consultada el 4 de agosto de 2013]. ción precisa del entorno; el registro es un fin por sí mismo y debe ser objeti-
vo, completo y preciso. Éste es el enfoque de las herramientas que describiré.

54 Colección Textos FA o Tecnología


Costos de un sistema fotogramétrico

Afortunadamente quedaron atrás los tiempos de la fotogrametría con altos cos-


tos, las más avanzadas tecnologías han permitido obtener muy buenos resul-
tados a precios muy accesibles. La cámara métrica10, antes indispensable, se
ha sustituido por la cámara digital de mercado amplio.
El costo de los programas de cómputo abarca desde los totalmente gratui-
tos, distribuidos con licencias de software libre, hasta algunos de varios miles
de dólares. No existe una relación costo-calidad, dado que ambos esquemas
presentan muy buenas herramientas. Lo mismo sucede con los equipos de
cómputo: es posible trabajar con equipos económicos de baja velocidad,
poca memoria ram y poca capacidad de procesamiento, no obstante el tiem-
po de procesamiento será mayor que con un equipo más potente. Según
la cantidad de imágenes y el tamaño de cada una, puede ocurrir que las
capacidades del equipo se vean rebasadas. Como experiencia, cuando he-
mos procesado 500 fotografías de 21 megapixeles con un equipo de 2.66
gh dual-core y 4gb en ram, el cálculo tardó más de una semana. Algunos
de los programas aprovechan mejor que otros el procesamiento en paralelo
utilizando varios procesadores más los procesadores incluidos en las tarjetas
gráficas, de forma que disminuyen los tiempos de cálculo.
El costo es una de las grandes ventajas de la fotogrametría en comparación
con el escáner 3d11, técnica hasta hace poco tiempo muy en boga y empleada
para el registro de edificios. Con esta última se obtienen también nubes de
puntos semejantes a las que se logran con la fotogrametría, aunque actual-
mente sus costos ya son prohibitivos para particulares; un escáner 3d cuesta
más de 25 000 dólares y los programas para procesar su información, más de
10 000, muchas veces con licencias que expiran en un año.
A continuación analizaremos los principios básicos de la fotografía digital.
Haremos una explicación generalizada de los pasos para el trabajo fotogra-
métrico sin referir al uso de algún programa de cómputo en específico.

La cámara y sus parámetros

Actualmente la mayoría de las cámaras fotográficas que ofrece el mercado


son apropiadas para la fotogrametría, aunque es preferible contar con una
cuya lente conserve una distancia focal fija; si la cámara tiene una longitud
focal variable hay que evitar que ésta cambie entre las tomas, esto se puede
lograr si se inmoviliza el lente con cinta adhesiva.
10 La cámara métrica es fabricada
De la misma manera se recomienda impedir las acciones automáticas de la especialmente para los trabajos de
cámara, como el enfoque y la exposición, y dejarlas en modo manual. Asimis- fotogrametría, su diseño y su óptica están
definidos con una alta precisión para
mo, los archivos se deben manejar con el formato .raw, para así disponer de controlar la deformación geométrica.
11 Emmanuel Alby et al., “Low cost
la información que se capturó sin procesos que cambiarían sus propiedades solutions for dense point clouds of small
de color. De ser necesario hacer modificaciones en la exposición, se pueden objects: Photomodeler Scanner vs. David
Laserscanner” (conferencia publicada en
utilizar el iso y la velocidad de obturación. 22nd CIPA Symposium, Kyoto, Japón, 2009).

De la fotografía al modelo tridimensional 55


Mientras más pixeles maneje la resolución de la cámara,
será mayor la superficie registrada en cada fotografía, lo que
reducirá la necesidad de hacer un gran número de tomas, se
capturará más detalles en cada una y se obtendrá una imagen
final con mayor resolución, aunque una cámara con 10 me-
gapixeles se considera muy adecuada para muchos trabajos.

Trabajo de campo
a

La iluminación
Los mejores días para hacer la toma de fotografías son los nu-
blados, pues generan una iluminación más pareja, sin contraste
de luces y sombras ni sombras pronunciadas. Los resultados
finales mostrarán a los objetos o edificaciones fotografiados tal
como se podían ver al momento de la captura de las imágenes.

La toma fotográfica para la calibración de la cámara


Es útil tomar cinco o seis fotografías de la esquina de un edificio
para que el programa pueda calcular la deformación que genera
la óptica del equipo, es decir con las características de cámara,
lente, diafragma y distancia de enfoque que se toman para las
demás fotografías del edificio. Si alguno de estos parámetros se
cambia para tomar otra serie de fotografías, se tendrá que hacer
b una segunda configuración para este lote de imágenes.

Reglas para la toma de fotografías


Antes de iniciar las labores hay que definir una estrategia para
las tomas fotográficas de acuerdo a los objetivos del trabajo,
a partir de si se busca realizar una ortofoto o capturar la volu-
metría del objeto. Asimismo, se debe establecer los niveles
de detalle deseados para reproducir la morfología del objeto.
En términos generales, el mismo pixel tiene que aparecer
en dos o tres fotografías para posibilitar su ubicación espacial,
lo cual implica un fuerte recubrimiento de las imágenes.
La creación de una ortofoto requiere de fotografías tomadas
de manera paralela a la fachada, con una densidad de tomas que
asegure su superposición en un 80% en lo largo y un 20 % en el
sentido vertical. Por su parte, la creación de modelos tridimen-
c
sionales requerirá de fotografías tomadas de manera radial, con
ángulos de un rango de 10 a 20 grados entre ellas.
Si se desea una alta resolución tanto para una ortofoto como
07. a, b y c: Esquema de ubicación
de las cámaras para las tomas de las
para un modelo tridimensional, será necesario tomar un juego
fotografías: a) fachada, b) interior de de fotografías generales que abarquen grandes áreas del objeto,
un cuarto, c) edificio u objeto aislado
lo que servirá para conocer su forma general, y otras series de fo-
Fuente: Iraís Hernández
tos cercanas que se usarán para obtener detalles en los productos

56 Colección Textos FA o Tecnología


finales. Para ello se trabaja con lentes diferentes; por ejemplo, se le da la vuelta
a un edificio con una lente de 24 mm para crear el modelo global y luego se
toman fotografías más cercanas con una lente de 50 mm para lograr un resul-
tado final con alta resolución. En este caso, se requiere también de la creación
de los dos archivos de calibración correspondientes.
Se recomienda preferir un exceso de tomas y no correr el riesgo de carecer
de las fotografías necesarias para que culmine el proceso. En todo caso, la toma
debe ser una actividad muy bien planificada antes de empezar.

Las referencias métricas


Para escalar y orientar el modelo, el programa requiere de información dimen-
sional, que se puede obtener al medir in situ distancias entre puntos identifica-
dos de la edificación, lo que deberá hacerse mediante una estación total para
una mayor precisión. Si no se cuenta con este instrumento, la medida puede
ser tomada con cinta métrica.

Procesamiento de la información

Calibración de la cámara
La calibración de la cámara es una acción indispensable para obtener un
resultado de calidad. A partir de las imágenes tomadas para este propósito,
el programa deduce las deformaciones que se producen por la óptica de la
cámara y transcribe su información a un modelo matemático que se registra
en un archivo.
Es importante considerar que una calibración corresponde a una configu-
ración óptica particular, de modo que al cambiar uno de los parámetros –sea
la cámara, el lente, la distancia de enfoque o el diafragma– será necesario
crear un nuevo archivo de calibración que corresponda a la nueva configu-
ración de las fotos. Generalmente, cada proyecto implica la necesidad de
realizar varias calibraciones para reflejar las distintas lentes o distancias de
enfoque empleadas.
Advertimos que nunca se deben recortar o girar las imágenes obtenidas,
porque entonces ya no podrían corresponder a la calibración.

Cálculo de las correspondencias entre fotografías


El primer proceso que el programa realiza con un conjunto de fotografías
consiste en hacer la “liga” o señalamientos de correspondencias entre ellas.
Esto permite conocer las zonas comunes entre distintas imágenes y la manera
en que se superponen. Algunos programas lo hacen automáticamente mien-
tras que otros requieren de un señalamiento manual.
Si la imagen tiene grandes áreas de color uniforme o un padrón muy repe-
titivo, el programa no logrará distinguir los elementos que caracterizan a los
pixeles y no alcanzará a establecer las correspondencias entre esas imágenes.

De la fotografía al modelo tridimensional 57


08. Colocación de puntos para
relacionar las fotografías. Cacaxtla
Fuente: Araceli Casas y Geneviève
Lucet, 2009

La apariencia del objeto debe ser siempre la misma; si su color varía, el


programa ya no podrá entender que se refiere al mismo objeto, tal es la razón
de cuidar las variaciones de iluminación durante todo el proceso de tomas
fotográficas.

Puesta a escala y orientación


A partir de esta primera información, el programa calcula la ubicación es-
pacial y la orientación de las cámaras con relación al objeto. Si el usuario
introduce las coordenadas de puntos específicos del objeto registradas pre-
viamente, cada cámara quedará en su respectiva posición (x,y,z) y será posi-
ble obtener resultados a escala relacionados con dimensiones. Es posible que
este cálculo no culmine si no se encontraron en la fase anterior suficientes
puntos de enlaces entre las imágenes, lo cual sucede cuando el número de
tomas no ha sido suficiente, no se manejó adecuadamente la representación
de una misma superficie en varias fotografías, la textura no permite la com-
paración de pixeles o la iluminación cambió de manera notable.

Cálculo de ortofotos
La ortofoto es una proyección de fotografías sobre un plano que se predefine.
Hay dos formas de calcularlo. En la primera, el programa calcula la ubicación
espacial de cada pixel y su proyección sobre el plano; en la segunda, crea una
imagen rectificada para cada fotografía y las ensambla mediante una técnica

58 Colección Textos FA o Tecnología


llamada “mosaicing”, para calcular su superposición y corregir los pequeños
cambios de color que pueden existir de una imagen a otra, sobre todo en las
partes periféricas de cada fotografía.

Cálculo de nubes de puntos


Las nubes de puntos se crean mediante el cálculo de la coordenada espacial de
cada pixel respecto a una foto maestra y que se encuentre en dos fotografías.
Es común que la nube presente errores, como agujeros en las partes donde
faltó información, ruido para las superficies tangenciales en el eje de visión
de la cámara, o desfasamiento entre las distintas nubes cuando la calibración
no fue muy exacta. En este caso se requiere de procesos posteriores (pospro-
cesos) para eliminar tales defectos.

Registro de arquitectura
09. Posición de las cámaras alrededor
de la estructura Las Higueras en el
La fotogrametría digital se emplea principalmente para el registro de los Museo de Antropología de Xalapa
exteriores de los edificios. Las distintas fachadas son así representadas con Fuente: Geneviève Lucet, 2013
mucha precisión en dos y tres dimensiones, además de que se pueden en-
samblar para la reconstrucción virtual del volumen. Es una técnica que resulta
también muy útil para registrar los espacios interiores amplios y con mucha
decoración, ya que conserva la calidad de los colores y de la iluminación.
Sin embargo tiene sus limitaciones, pues el registro fotogramétrico no funciona
cuando la construcción tiene materiales transparentes, reflejantes o aplanados
lisos sin dibujos, manchas ni algún relieve.
Desde sus inicios la fotogrametría ha sido utilizada para documentar las
obras históricas de arquitectura, lo cual es una actividad compleja porque ge-
neralmente casi todas las obras son edificaciones con relieves en sus fachadas,
cornisas, balaustradas, gárgolas y piedras salientes. Un buen registro debe con-
servar la forma, la ubicación, las medidas y la apariencia de cada uno de estos
elementos. El problema se hace todavía más complejo cuando las obras mani-
fiestan deformaciones propias del envejecimiento, sea por los asentamientos
de terreno o los vencimientos estructurales, de manera que las aristas ya no
son verticales, los planos han perdido su horizontalidad o se observa abomba-
miento en los muros. Por otra parte, los materiales y el color de sus acabados,
a veces recubiertos con pintura mural, constituyen una fuente de información
muy importante ligada al edificio, la cual nos ayuda a interpretar la inten-
ción de sus constructores. Por todo lo anterior, el registro de edificios históri-
cos se debe hacer tratando de lograr la máxima exactitud en las dimensiones
y apariencia, y representar sus cualidades tridimensionales y sus acabados.
La labor es a la vez un registro de medidas y de color.12 Para tener una informa-
ción completa hay que documentar la obra exhaustivamente y con el máximo
de detalle posible.
12 Pierre Drap, “Photogrammétrie et relevé
El registro de monumentos representa el estado actual de las edificacio- archéologique. Une approche fondée
sur sa connaissance”(tesis doctoral,
nes que constituyen la memoria del pasado construido y es por sí mismo École Doctorale de Mathématique et
un documento de gran valor y la base para numerosos estudios. Además, si Informatique, 2011).

por alguna razón la edificación llegara a desaparecer, esta documentación

De la fotografía al modelo tridimensional 59


permite recuperar la información para continuar su estudio o para su recons-
trucción, como sucedió con muchas iglesias y centros históricos después de
la Segunda Guerra Mundial.
Los historiadores del arte y de la arquitectura suelen utilizar estos documen-
tos para estudiar las edificaciones, su hechura, sus simbolismos y significados.
El levantamiento y la reconstrucción virtual nos permiten observar las modi-
ficaciones del edificio y comprender sus procesos históricos de adaptación
a las sucesivas necesidades de los usuarios. Los estudios de trazos composi-
tivos de una fachada requieren también de una representación precisa para
entender cuáles fueron las intenciones de los constructores. De la misma for-
ma, con el levantamiento de plantas y fachadas se puede investigar el sistema
de medición que emplearon los constructores. Esta es una interrogante fun-
damental en la investigación de la arquitectura de Mesoamérica, donde hace
falta más estudios para conocer los medios y recursos que se emplearon para
medir los espacios y construcciones.
La fotogrametría es también una herramienta indispensable para los trabajos
de restauración, pues genera una información precisa que permite compren-
der los procesos de envejecimiento en el edificio. Una medición cuidado-
sa ayuda a entender si una falla estructural es de origen u ocasionada por
transformaciones del edificio o por el debilitamiento de los materiales; úni-
camente al conocer plenamente estas razones es posible tomar decisiones y
definir el tipo de intervención para consolidarlo. Asimismo, los registros reali-
zados en distintas fechas se pueden comparar para conocer y estudiar la ma-
nera en que el proceso de deterioro sigue su curso natural y paulatino, o si se
incrementa por alguna razón.
Para realizar un proyecto arquitectónico en algún medio urbano, la foto-
grametría permite obtener el modelo a escala del entorno; esto es información
fundamental para el arquitecto, quien debe considerar las construcciones cer-
canas para desarrollar algún nuevo proyecto. Con la fotogrametría es posible
registrar las construcciones prexistentes e integrarlas a la visualización del
edificio para comprobar si su escala y volúmenes armonizan con el contexto,
y así evitar sorpresas al momento de la construcción.
Por otra parte, los recursos que ofrecen las técnicas de realidad virtual han
demostrado ser excelentes herramientas para la docencia, pues permiten visua-
lizar los hitos de la arquitectura e interactuar con ellos. Empero, esta técnica
requiere de la representación volumétrica de las construcciones, y elaborar
esos modelos puede llegar a ser un proceso muy laborioso si se sigue el mé-
todo tradicional que consiste en medir, modelar con algún programa de cad,
preparar texturas y renderizar, mientras que la fotogrametría aporta una solu-
ción rápida para tener un modelo a escala y con texturas.
Otra de las grandes ventajas de esta técnica, aprovechada desde sus ini-
cios, es que se puede realizar a partir de fotografías aéreas y para levantamien-
tos topográficos, combinando la técnica con levantamientos realizados en
terreno. Asimismo, tanto al nivel urbano como al nivel territorial se utilizan
sistemas automáticos que se basan en fotogrametría aérea para comparar levan-
tamientos realizados en diferentes fechas y analizar los crecimientos urbanos y

60 Colección Textos FA o Tecnología


b

la desaparición de áreas cultivables o de zonas boscosas; si bien esto se puede 10. a y b: Xel-Há, estructura del Conjunto
de los Jaguares, malla tridimensional y
hacer con registros satelitales, resulta más preciso con fotogrametría aérea. acercamiento a una esquina
La arqueología ha recurrido a la fotogrametría aérea para realizar levanta- Fuente: Geneviève Lucet e Iraís
Hernández, 2013
mientos, como lo demuestran los importantes trabajos realizados por Millon
para elaborar los mapas de Teotihuacán13. También se aplica para buscar cier-
ta información que no resulta evidente si se mira exclusivamente en el nivel
del suelo, tal como estructuras todavía enterradas o caminos que dejaron de
serlo, lo cual se manifiesta en la fotogrametría con diferencias de crecimiento
y color en la vegetación que los recubre. Esta técnica, con sus evidentes bon-
dades, todavía conserva ciertos problemas que limitan su uso más generaliza-
do: se requiere volar con helicópteros, son servicios comerciales que resultan
sumamente costosos y tienen la desventaja de que no se autorizan vuelos a
menos de 500 m de altitud. Ante estos problemas se ha venido popularizando
el uso de drones, pequeños aparatos voladores no tripulados cuya altitud de
vuelo puede ser menor, con los cuales se mejoran los detalles de las fotogra-
fías resultantes. La ortofoto aérea es más precisa que el mejor levantamiento
topográfico y nos proporciona mucha más información.

Conclusión

La fotogrametría digital es un instrumento de alta precisión para el registro de


la arquitectura, sitios arqueológicos, zonas urbanas y territorios en general;
al mismo tiempo, constituye una técnica adecuada y pertinente para obte-
ner modelos caracterizados por su alto realismo al registrar perfectamente
los acabados de las superficies y su iluminación. Su costo va en constante
13 René Millon, The Teotihuacan Map,
descenso y no demanda conocimientos muy especializados. En cuanto a sus University of Texas, Austin y de Londres,
capacidades, su grado de precisión es comparable con las técnicas de escáner 1973.
por láser, a las que supera en la calidad colorimétrica del modelo mediante el

De la fotografía al modelo tridimensional 61


11. Xel-Há, fotografía original y
en la siguiente página modelo
tridimensional en tono de grises
Fuente: Geneviève Lucet, 2012

uso de fotografías con una resolución mucho mayor. Por todas estas razones
es una técnica que se ha popularizado y cuya aplicación se incrementa gra-
cias a las muchas disciplinas y actividades que requieren de registro digital, de
modelos tridimensionales y de representaciones en realidad virtual.
Actualmente es una técnica madura, cuyos fundamentos son ya lo sufi-
cientemente sólidos para permitir su avance y desarrollo. Se vislumbran cada
vez mejores recursos tecnológicos para facilitar el trabajo y lograr la mayor
fidelidad que se pudiera desear con una representación digital. Se esperan
programas cada vez más inteligentes y que requieran de menor interven-
ción humana, lo cual incrementaría todavía más la precisión; además, el
desarrollo de interfaces simplificará su uso. Las cámaras evolucionarán hacia
una mayor cantidad de pixeles y los equipos de cómputo, hacia una mayor
capacidad de cálculo, lo que permitirá trabajar con resoluciones cada vez
más altas, tanto para las ortofotos como para las nubes de puntos. Son recur-
sos que si bien son ajenos al trabajo de la fotogrametría, constituyen la base
material con la que se realiza. Por ahora nos hemos enfrentado a la limitante
de las capacidades de los visualizadores de nubes de alta densidad, muy
exigentes en el rendimiento de las tarjetas gráficas de las computadoras y en
memoria ram; por este lado esperamos avances que permitirán conservar la
alta definición de los objetos y su manipulación en tiempo real.
La arquitectura encuentra en la fotogrametría digital una solución a la
necesidad de contar con representaciones exactas de lo construido, ya sea
para la docencia, la restauración, la investigación histórica o la elaboración
de nuevos proyectos. Son necesidades que se han percibido y que se man-
tienen desde el siglo xix, sin embargo los avances ocurridos durante el siglo
12. Huitzilin, hexacóptero del Instituto
de Investigaciones Estéticas-unam xx y en los principios de este nuevo siglo implican que podamos contar con
para fotogrametría aérea, proyecto la fotogrametría como una realidad accesible, un recurso más para docu-
Mecate
Fuente: Geneviève Lucet mentar, estudiar, enseñar y visualizar de manera tridimensional las obras que
constituyen nuestra historia y nuestra cultura material.

62 Colección Textos FA o Tecnología


Referencias

Agisoft PhotoScan. http://www.agisoft.ru [Consultada el 4 de Grussenmeyer, P., T. Landes, T. Voegtle y K. Ringle. "Compa-
agosto de 2013]. rison methods of terrestrial laser scanning, photogramme-
Alby, Emmanuel, Eddie Smigiel, Pierre Assali, Pierre Grussen- try and tacheometry data for recording of cultural heritage
meyer e Isabelle Kauffmann-Smigie. "Low cost solutions for buildings". The International Archives of the Photogramme-
dense point clouds of small objects: Photomodeler Scanner try, Remote Sensing and Spatial Information Sciences xxx-
vs. David Laserscanner". Ponencia de 22nd cipa Sympo- vii, núm. B5, 2008, pp. 213–218.
sium, Kyoto, Japón, 2009. Hullo, Jean-François, P. Grussenmeyer y S. Fares. "Photogramme-
Cabrelles, M., S. Galcerá, S. Navarro, J. L. Lerma, T. Akasheh y try and dense stereo matching approach applied to the docu-
N. Haddad. "Integration of 3D laser scanning, photogramme- mentation of the cultural heritage site of Kilwa (Saudi Arabia)".
try and thermography to record architectural monuments". Ponencia de 22nd cipa Symposium, Kyoto, Japón, 2009.
Ponencia de 22nd cipa Symposium, Kyoto, Japón, 2009. ign. MicMac. http://www.micmac.ign.fr [consultada el 4 de
De Luca, Livio. La photomodélisation architecturale. Relevé, agosto de 2013].
modélisation et représentation d´édifices à partir de photo- Jean-Paul Saint Aubin. Le relevé et la représentation de
graphies. París: Eyrolles, 2009. l’architecture [Inventaire général des monuments et des ri-
Drap, Pierre. "Photogrammétrie et relevé archéologique. Une chesses artistiques de la France, documents et méthodes
approche fondée sur sa connaissance". Tesis doctoral. Éco- 2]. París: Inventaire général, spadem. Association Etudes,
le Doctorale de Mathématique et Informatique, 2011. loisirs et patrimoine,1992.
Durero, Alberto. Instituciones de geometría. México: Biblio- Martín Jiménez, Alfonso y Francisco Pinto Puerto. Levanta-
teca Nacional, Instituto de Investigaciones Bibliográficas, miento y Análisis de Edificios. España: Universidad de Se-
Universidad Nacional Autónoma de México, 1987. villa, 2003.
Guidi, Gabriele, Fabio Remondino, Fabio Menna, Miche- Millon, René. The Teotihuacán Map. eua: University of Texas,
le Russo, Sebastiano Ercoli y Alessandro Rizzi. "Digiti- Austin y de Londres, 1973.
zing Pompeii’s Forum". En Frischer, Bernard, Jane Webb siggraph y Paul Debevec. "Image-based modeling and rende-
Crawford and David Koller (eds). Making History Interac- ring course notes 15: siggraph 98". Conferencia dictada en
tive, Computer Applications and Quantitative Methods in 25th International Conference on Computer Graphics and
Archaeology (caa), s.p.i., 2010. Interactive Techniques, Orlando, Florida, eua. Association
for Computing Machinery, julio de 1998.
insa. Photogrammétrie : Historique. http://www.insa-stras-
bourg.fr/fr/historique-topographie/ [Consultada el 29 de
junio de 2013].

De la fotografía al modelo tridimensional 63


64 Colección Textos FA o Tecnología
El papel de los materiales emergentes y sustentables
en la cosecha de energía renovable y en la creación
de edificios de energía cero de la red

Ernesto Ocampo Ruiz

Introducción

En el siglo xxi, mientras que la humanidad enfrenta la emergencia ambiental


presente en el planeta y busca soluciones contundentes para fenómenos climá-
ticos dramáticos, globales o locales –tal como el efecto de isla de calor urbano
en nuestras ciudades–, se analizan y ponen en marcha estrategias de genera-
ción eficiente de energías renovables. Para su implementación, éstas requieren
necesariamente de la Investigación y el Desarrollo Tecnológico con Diseño
Transdisciplinario (i&d+d) de avanzados materiales emergentes y sustentables,
los cuales permitan cosechar energía eléctrica útil a partir de los fenómenos
físicos comunes y naturales, así como también de las energías residuales actual-
mente desperdiciadas producidas por las más variadas actividades humanas,
desde el uso de objetos de diseño a la construcción de obras urbanas. La “cose-
cha de energía” así manejada pone en el horizonte cercano la factibilidad de la
creación de un muy distinto concepto de distribución eléctrica en las ciudades,
que tiene como objetivo la implantación de los edificios de cero energía de la
red, totalmente autónomos y eficientes, que generan por sí mismos su fuerza
electromotriz, lo que demanda a su vez una nueva y radical cultura del ahorro
energético en la sociedad.

Materiales emergentes y sustentables en la arquitectura

En un mundo sumergido en una crisis ambiental, social y económica que exige


un cambio de visión arquitectónica y urbana en cuanto a soluciones contun-
dentes y amigables con el planeta, la sociedad demanda al arquitecto contem-
poráneo la búsqueda del control de la degradación del ambiente en entornos
urbanos y el efectivo ahorro energético en sus edificaciones arquitectónicas.
Con el visible grado de avance tecnológico generalizado y contundente que
prevalece en el siglo xxi, las soluciones arquitectónicas y urbanas que pueda
ofrecer el arquitecto contemporáneo a la sociedad, en el presente y el futuro

65
01. Detalle del prototipo del pavimento mediato estarán necesariamente teñidas de una elocuente, creativa e innova-
de concreto armado prefabricado dora inserción de todas estas estrategias tecnológicas. Éstas provienen de otras
termoeléctrico solar. Demostró ser una
tecnología adecuada para explotar una disciplinas, ingeniosamente combinadas con nuestros sistemas constructivos
nueva fuente de energía renovable con tradicionales y modernos, y nos reclaman su uso para mejorar la calidad am-
características únicas: la radiación infrarroja
del Sol depositada en todas las superficies biental del espacio arquitectónico y urbano, así como para hacer eficiente la
de las envolventes de edificios y los generación y el uso de la energía renovable necesaria para cumplir las acti-
pavimentos urbanos. Puede transformar
en electricidad el calor acumulado en la vidades cotidianas de la población ocurridas al interior de los edificios y los
masa del concreto, producto tanto de la espacios públicos de la ciudad. Todas estas tecnologías constructivas esperadas
radiación directa del Sol como de la difusa
proveniente de la atmósfera. A mayor
surgen en este momento globalmente como producto de un proceso transdisci-
diferencial de temperatura existente entre plinario de investigación y desarrollo tecnológico; los materiales constructivos
la superficie de concreto y el aire, mayor novedosos que surgen con su creación se conocen como emergentes.
será el voltaje generado
Las tecnologías emergentes son innovaciones científicas que pueden crear
una nueva industria o disciplina, o transformar una existente. Incluyen tecnolo-
gías discontinuas derivadas de innovaciones radicales (abandonadas por falta
de investigación aplicada inmediata), así como tecnologías más evolucionadas
formadas a raíz de la convergencia de ramas de investigación antes separadas
(pero con productos transdisciplinarios con objetivos comunes). Cada una de
estas tecnologías ofrece una rica gama de oportunidades de mercado que pro-
porcionan el incentivo suficiente para realizar inversiones de riesgo.1 Mientras
que las tecnologías tradicionales se entienden como los procesos de transfor-
mación del conocimiento básico en aplicaciones útiles,2 las tecnologías emer-
gentes son aquéllas que se expanden junto con el conocimiento básico y cuya
1 Cfr. George Day et al., Gerencia de
Tecnologías Emergentes, Buenos aires, aplicación en los mercados está sometida a continua innovación, o bien se
The Wharton School of the University of
Pennsylvania, Editorial Javier Vergara / aprovechan o se crean de ellas nuevos mercados. Las tecnologías emergentes
Business, 2001, pp. 121-122. que influyen actualmente en la arquitectura provienen en su mayoría de otras
2 De acuerdo al Modo 2 de Gibbons.
Cfr. Michael Gibbons et al., La nueva disciplinas. Ejercen presión en ella, ya que sus evidentes potenciales e im-
producción del conocimiento. La dinámica pactos prometen aplicaciones arquitectónicas y urbanas cuyas soluciones se
de la ciencia y la investigación en las
sociedades contemporáneas, España, aprecian únicas y contundentes.
Ediciones Pomares-Corredor, 1997.
3 Cfr. Kevin Bullis, “Solar Downturn Casts Las tecnologías emergentes son inciertas; aparecen y crecen de forma acelera-
a Shadow Over Innovation: With no one da; requieren el desarrollo de nuevas habilidades y capacidades, y trabajan con
buying new equipment, solar companies
are looking to make the best of existing reglas diferentes.3 Es por ello que diseñar tecnologías emergentes para la arqui-
technology”, mit Technology Review Energy
News, abril 2 de 2013. tectura, requiere de un trabajo transdisciplinario. El arquitecto contemporáneo
debe diseñar sus propias tecnologías y materiales emergentes porque sólo él

66 Colección Textos FA o Tecnología


conoce y comprende las verdaderas causas y efectos de problemas que incum-
ben exclusivamente a su disciplina, pero que por su formación históricamente
limitada en el sentido tecnológico y científico (hoy el arquitecto es considerado
un “artista”) requiere para su creación del apoyo y el conocimiento directo de
físicos, químicos, ingenieros y diseñadores.4 El fracaso de una tecnología emer-
gente se produce porque no funciona o no puede ser actualizada e incrementada
a las tasas de producción económicamente viables; o bien la superó una tecno-
logía mejor, o bien estaba demasiado adelantada para su época. El objetivo de
desarrollar tecnologías emergentes para la arquitectura y la ciudad es producir
un beneficio en algún momento del futuro, lo que requiere necesariamente
de una visión prospectiva aguda, apoyada en la experiencia de construcción,
de parte de los arquitectos desarrolladores. La tecnología emergente que se
queda finalmente, que persiste, es porque encuentra un nicho favorable donde
es más útil que otras tecnologías tradicionales.
La aceleración que se ha dado en la investigación básica y aplicada de
distintas disciplinas ha propiciado un avance enorme en la última década en
el desarrollo de nuevos materiales emergentes. Son producto de años de inves-
tigación en distintos campos que se cruzan y que forman una masa crítica que
produce presión en la industria de la construcción y en las disciplinas que no
las conocían. Como las tecnologías emergentes, los materiales constructivos
avanzados y emergentes señalan su llegada mucho tiempo antes de convertirse
en éxitos comerciales maduros. Mucho antes de que se conviertan en impres-
cindibles, dan señales de tener la capacidad de cambiar incluso el paradigma
de una disciplina o industria. Hay señales fuertes y señales débiles presentes
en nuestro entorno científico, mediático, financiero, industrial, educativo y
comercial. Deben sus posibles desarrolladores percibirlas para proponerlas y
poder sobrevivir. Los materiales emergentes que permanecen finalmente lo
hacen porque encuentran un nicho relevante donde son más útiles que otros
materiales tradicionales con usos similares. En el sentido ambiental y energéti-
co, es el caso de los materiales constructivos emergentes y sustentables.
Bajo estos postulados, la operación de un edificio moderno requiere de un
diseño específico que aproveche de forma activa las propiedades de control
ambiental y de generación de energía renovable que poseen ciertos materiales
constructivos para hacer eficiente y pertinente su presencia específica dentro
de un entorno urbano. Operar de forma activa implica que un material cons-
tructivo haga algo más que estar colocado para cubrir una función estética o 4 La necesidad de realizar soluciones que en
este momento requieren obligatoriamente
mecánica, tal y como tradicionalmente se han utilizado en la arquitectura y la matices tecnológicos avanzados, sobre
todo para la creación de materiales
ciudad; implica que opere generando al menos energía alternativa y renova- arquitectónicos emergentes y sustentables,
ble, y si se puede, ofrecer propiedades radicales e innovadoras para funciones obliga en el futuro mediato a universidades
y colegios de profesionistas a iniciar un
específicas –las más diversas y radicales que se puedan utilizar–, que bien proceso de evolución de la disciplina y
de sus planes de estudios utilizados en
pueden ayudar también a controlar las variables incidentes climáticas para la formación de nuevos arquitectos, para
mejorar el medio ambiente en el entorno mediato del edificio. acercarse con un enfoque nuevo a los
conocimientos de la física, la química y las
En la investigación de nuevos materiales y sistemas constructivos, así matemáticas avanzadas aplicadas desde el
como en el dominio de tecnologías emergentes clave, se encuentran los pro- nivel de licenciatura.

ductos y las soluciones que la arquitectura contemporánea requiere para

El papel de los materiales emergentes y sustentables 67


atender contundentemente los problemas apremiantes de habitabilidad que
nos reclaman la sociedad, la economía y el medio ambiente.

La sustentabilidad, una utopía o una realidad mundial

La población en general visualiza aún a la sustentabilidad como un concepto


etéreo e inaprensible debido a la gran deformación mediática y a la falta de
divulgación de ejemplos prácticos y contundentes sobre su aplicabilidad y
medición en obras arquitectónicas y urbanas. No es una utopía; en realidad
es todo lo contrario, puesto que la sustentabilidad es totalmente medible y
aplicable a la obra arquitectónica y urbana durante todo su proceso creativo,
desde su bosquejo inicial en las primeras etapas del proyecto arquitectónico,
hasta la entrega formal de lo finalmente edificado.
El Programa de las Naciones Unidas para el Medio Ambiente (pnuma)
lanzó la siguiente definición en 1991:

Sustentabilidad es el incremento constante de la calidad de vida de los seres


humanos, viviendo permanentemente en equilibrio y respeto dentro de los
umbrales razonables y aceptables de la capacidad de soporte, autorrenova-
ción y autorregulación inmanente e inherente de los ecosistemas.5

Ésta definición ofrece un punto de partida que permite establecer formas


para cuantificar real y prácticamente la sustentabilidad. En el postulado,
cada factor y parámetro de medición está actualmente soportado y reforzado
por acuerdos y normatividad internacionales, por el concepto universal de
Análisis de Ciclo de Vida (lca: Life Cycle Assessment), así como por los pa-
trones de diseño avalados y evaluados por cada sistema de calidad6 para el
control ambiental y el ahorro energético que hoy se encuentran en operación
5 “Sustainable development means a nivel mundial para el diseño de edificios y ciudades sustentables. Todos
improving the quality of life of humans,
while living within the carrying capacity of han facilitado de forma práctica que en la actualidad, durante un proceso
supporting ecosystems”, en “Caring for the
Earth: A Strategy for Sustainable Living, de diseño arquitectónico-tecnológico, sea posible la aplicación asistida de
Switzerland”, Wikipedia, consultado el 29 herramientas informáticas7 muy precisas de cuantificación y dictamen del
de marzo de 2009.
6 Sistemas de calidad ambiental y energética impacto económico y sustentable, lo cual ayuda a desarrollar verdaderos
tales como Minergie, leed (Leadership in
Energy and Environmental Design), Cradle productos arquitectónicos y urbanos, adecuados y amigables del planeta.
to Cradle, breeam (Building Research La sustentabilidad se mide y es una realidad mundial. Es obligación del
Establishment Environmental Assessment
Method for buildings) y Green Star- arquitecto moderno medir en cada etapa del proceso arquitectónico el impac-
Australian Certified Building System. to ambiental y energético de cada sistema constructivo y cada material pro-
7 Diseñado por la epa (Environmental
Protection Agency) de eua. El programa puesto con la ayuda de estas herramientas informáticas. Así podrá decidir
online bees (Building for Environmental
and Economic Sustainability), así como paso a paso, en el diseño y muy a tiempo, la pertinencia y permanencia de
SimaPro, desarrollado comercialmente sus materializaciones en el proyecto ejecutivo final. Debe hacerlo de una
para consultoría ambiental, son dos de las
herramientas informáticas más usadas manera comprometida, continua y detallada, tal como en el siglo xx le dio
mundialmente para calcular el impacto
ambiental, económico y energético de los preponderancia e importancia excesiva al conocido proceso habitual de cál-
materiales tradicionales y emergentes culo de precios unitarios y costos en la toma de decisiones de sus procesos
usados en la industria de la construcción.
de diseño arquitectónico y urbano.

68 Colección Textos FA o Tecnología


02. Las fotoceldas solares son el perfecto
ejemplo de lo que significa un material
emergente y sustentable activo. Hace más de
40 años, cuando fueron aplicadas por primera
vez a la arquitectura, eran consideradas una
tecnología emergente de alto riesgo y costo,
que mostraba el camino que posteriores
tecnologías renovables deberían seguir.
Aun cuando los componentes del sistema
poseen materiales constitutivos de alto
impacto ambiental negativo, su beneficio en la
generación de energía es superior, y por ello
se le considera una tecnología sustentable. El
silicio, material constitutivo de los colectores
fotovoltaicos es un material activo, porque
además de mostrarnos sus propiedades cromo
hápticas / esteticas, y utilizar sus propiedades
mecánicas para autosoportarse y trabajar,
demuestra una propiedad especial, llamada el
fenómeno fotovoltaico, que le permite generar
además energía eléctrica a partir del espectro
de luz visible de nuestro Sol

03. Aquí se observan los colectores


parabólicos de las Plantas de Energía
Solar Concentrada (csp) como la
Mohave Sun Power Plant One. Produce
64 MegaWatts a través de turbinas
accionadas por el vapor de agua liberado
en tanques de intercambio de calor a
donde llegan las tuberías de aceite fluido
que circula por los colectores parabólicos
y que se eleva con una temperatura arriba
de 300 °C con la radiación del Sol. Utilizan
la red de alta tensión para transportar
a más de 100 millas de distancia, sin
caida de voltaje, la energía generada a
la ciudad de Los Ángeles. Recordemos
que la mejor energía, la más eficiente, es
aquélla que se genera en el mismo lugar
que se consume. El futuro energético se
protagonizará así, a pie y a piel de cada
edificio de cero energía de la red

El papel de los materiales emergentes y sustentables 69


Una tecnología o un material constructivo emergente es calificado como
sustentable si podemos confirmar sus beneficios para la sociedad y el pla-
neta. Se utiliza una ponderación cualitativa basada en una medición rigu-
rosa de su verdadero impacto ambiental, económico, social y energético.
Un impacto ambiental que no solamente observe el efecto negativo, sino
que, como en un balance contable y financiero8, interprete adecuadamente
el punto de equilibrio existente entre los efectos negativos reales del material
emergente y sustentable propuesto, frente a los beneficios reales y cuantifi-
cables que aporta de manera ambiental y energética al edificio y la ciudad.
En este enfoque, el material emergente es sustentable si visiblemente excede
en beneficios a los posibles efectos negativos ambientales derivados de su
proceso de producción y ciclo de vida.

La cosecha de energía renovable y residual

Bajo un enfoque definitivo de índole eco y biomimético9, tanto la cosecha


de energía alternativa (energy harvesting) con materiales emergentes y sus-
tentables activos, como los edificios de energía cero de la red (zero energy
building from grid)10 se han convertido en un paradigma perseguido a nivel
8 Cfr. Alejandro Fernández del Castillo de la
Concha, “Certificación de Materiales de
mundial para la construcción sustentable de obras arquitectónicas y urbanas.
Construcción con Principios Aplicados de Se busca primordialmente la generación eficiente de energía alternativa y
Biomimética”, tesis de grado para obtener
la Maestría en Arquitectura, Universidad renovable en las envolventes arquitectónicas y los pavimentos urbanos mo-
Nacional Autónoma de México, 2012, pp. dernos, a pie de edificio, que atiendan transparente y contundentemente las
94-97.
9 Dos paradigmas de visión y diseño demandas actuales de la sociedad, la economía, la cultura y el planeta.
coexisten hoy y no son compatibles:
el proceso lineal de consumo, con Existen varias formas de generación de energía para las ciudades y los
obsolescencia programada, altamente edificios. Bajo el enfoque del proceso lineal de consumo tradicional, duran-
contaminante y degradante del entorno,
que agota recursos naturales para hacer te el siglo xx se edificaron industrias gigantescas para explotar las distintas
ciudades, edificios y productos; y el proceso
biomimético, que copia el ciclo de vida
formas de energía convencionales generadas a partir de nucleoelectricidad,
como modelo de la naturaleza, de forma carbón y combustibles fósiles, así como la energía hidroeléctrica, geotérmica
que recicla, reúsa y biodegrada materiales,
así como recupera y cosecha energía para convencional y la química (presente en todo tipo de baterías). En contraste,
ciudades, edificios y productos. bajo el enfoque del proceso biomimético se empieza a explotar las energías
10 Cfr. Peter Gevorkian, Solar Power in
Building Design (eua: Mc Graw-Hill’s alternativas y renovables de origen eólico; la biomasa y el biogás; de origen
GreenSource Series, 2008, 506.
11 Conocida en inglés como energy harvesting, cinético, mareomotriz y piezoeléctrico; energía solar fotovoltaica, solar con-
es un proceso ineludible y constante centrada (csp), solar termoeléctrica y piroeléctrica residual; microhidráulica
en la captura de energía en todas las
fuentes alternativas y renovables, tales residual y microgeotérmica. Las energías alternativas y renovables son dis-
como la eólica, la piezoeléctrica o la
fotovoltaica. Dado que estas fuentes no
continuas, variables e intermitentes. Requieren de un sistema de cosecha de
son continuas y estables en su producción energía11, consistente en controles automatizados para acumular y adminis-
energética, los cosechadores de energía
deben diariamente “cosechar” en trar su consumo. Asimismo necesitan del diseño de materiales emergentes
pequeñas cantidades la energía capturada que produzcan energía y de tecnologías para el control y almacenamiento,
por el sistema de generación, para
acumularla poco a poco en un sistema de de punta y claves, que en este momento surgen en otras disciplinas.
almacenamiento confiable. Sólo cuando la
cuota de energía necesaria de operación No todo lo que parece energía renovable es renovable. Aun cuando se
está totalmente almacenada, un sistema construyen, por ejemplo, plantas de Energía Solar Concentrada (csp) en lu-
de distribución entra en función para
suministrar potencia eléctrica útil al gares exitosos como el Desierto de Mohave (eua), han sido construidas bajo
edificio.
el principio de funcionamiento de intercambio de energía calorífica presente
en la clásica bomba de calor usada en aires acondicionados y radiadores

70 Colección Textos FA o Tecnología


tradicionales, así como con la visión de diseño en la distribución arcaica,
a semejanza de una planta generadora tradicional hidroeléctrica, siempre
a gran distancia de los centros urbanos. Esto ocasiona, entre otras cosas, la
necesidad de producir energía excesiva todos los días para poder suministrar
adecuadamente cierto nivel de tensión y corriente eléctrica en cada toma de
la ciudad. En consecuencia se desperdician en el trayecto grandes cantidades
de electricidad que es disipada a la atmósfera por el cableado de alta tensión,
que se pierde en forma de calor y de radiación electromagnética. Se ha pla-
neado así para evitar primordialmente el fenómeno de la caída de voltaje en
las líneas de distribución eléctricas a gran distancia.
Hoy la tendencia es generar y explotar la energía a pie del edificio cons-
truido. Esto permite, entre muchas otras cosas, controlar, almacenar y su-
ministrar de forma más eficiente la energía que podemos obtener de forma
alternativa y renovable. Esta explotación hace que cambie radicalmente la
posición y actitud parasitaria del edificio común, para convertirse en un ob-
jeto arquitectónico activo, independiente de la red municipal, autosuficiente
y autogenerador de su propia energía requerida.

Una nueva cultura del uso y el ahorro energético: los edificios de energía
cero de la red

Para que finalmente se realicen edificios y ciudades autosuficientes y autogene-


radores de su propia energía electromotriz, hoy conocidos como zero energy
buildings from grid12, se requiere otro tipo de enfoque en las soluciones arqui-
tectónicas y urbanas que hoy se están generando. La emergencia ambiental y
energética que vive nuestro mundo propicia un cambio total de visión en cuanto
al uso de los recursos materiales y energéticos para la construcción de los edi-
ficios del futuro en nuestras urbes modernas.13 Incluye un cambio de visión en
la forma de suministrar la energía al interior de los espacios arquitectónicos y
urbanos, como también en la forma en que se consume todos los días. En este 12 Entre 2008 y finales de 2013, los
investigadores de Australia, Austria,
nuevo paradigma, donde prevalece un enfoque eco y biomimético de diseño, Bélgica, Canadá, Dinamarca, Finlandia,
Francia, Alemania, Italia, Corea, Nueva
se busca insertar en todo momento nuestras edificaciones en los ecosistemas Zelanda, Noruega, Portugal, Singapur,
sin alterarlos gravemente, por encima del histórico proceso tradicional econó- España, Suecia, Suiza, Reino Unido y
eua trabajaron juntos en el programa
mico lineal de consumo –y en contra de él–, que ha propiciado la degradación de investigación “Towards Zero Energy
del ambiente y el uso excesivo e indiscriminado de materia prima y energía Buildings Solar Net” bajo el financiamiento
de la Agencia Internacional de Energía (iea),
generada. Dentro de esta visión eco-biomimética14, existen varios postulados en el Programa Solar Heating and Cooling
(shc) Tarea 40 / Conservación de Energía
que se convierten en estratégicos en cuanto a la creación de los edificios de en Edificios y Sistemas de la Comunidad
cero energía de la red en nuestras ciudades: (ecbcs), Anexo 52, para llevar en breve el
concepto zero energy building from grid
directo a la viabilidad de mercado mundial.
13 Cfr. California Energy Commission, Pier
•• La energía más eficiente es la que se genera en el mismo lugar en el Final Project: Urban Surface Modification
que se consume. Postulado que influye en la necesidad de construir as a Potential Ozone Air-Quality
Improvement Strategy in California (eua:
edificios zero energy from grid, totalmente autosuficientes por autoge- Altostratus Inc., julio de 2005, pp. 7-8.
neración de energía eléctrica con potencia suficiente para mantener la 14 Cfr. Janine Benyus, Biomimicry, Innovation
Inspired by Nature (eua: Harper Perennial,
operación de los espacios habitables interiores y urbanos. Bajo esta es- 1998, p. 308.
trategia, el edificio y sus envolventes y pavimentos son el objetivo para

El papel de los materiales emergentes y sustentables 71


aplicar soluciones de generación de energía renovable, con el uso de
materiales emergentes y sustentables activos. La generación de fuerza
electromotriz debe ser en el pie de obra.
•• La energía más económica es aquélla que se genera en cantidad sufi-
ciente únicamente para la actividad o equipo que lo requiere. sólo se
debe producir la electricidad en la tensión e intensidad eléctrica que
exijan los aparatos que se encenderán dentro de los edificios, de forma
que no se generen excedentes innecesarios que no se puedan almace-
nar o compartir. Aquí la suma de todo el consumo eléctrico diario del
edificio es el tope de producción o meta de generación eléctrica.
•• El consumo de energía más responsable con su entorno es aquél que
limita la magnitud de la energía utilizada al máximo para la operación
suficiente de un equipo. Esta acción influye actualmente más en las
industrias de enseres electrodomésticos, principalmente en un rediseño
de su electrónica para reducir la cantidad de energía que consumen
durante el tiempo de vida (lca) de los objetos diseñados. El exceso his-
tórico de generación eléctrica en las fuentes convencionales no tiene
sentido en este tipo de edificios, por lo que el diseño debe enfocarse en
una visión de ahorro sistemático de la energía cosechada.
•• La energía más valiosa e importante es aquélla que no debemos y no
podemos desperdiciar. Cada día la cosecha de energía alternativa y reno-
vable se hace necesaria, pero también se hace indispensable la cosecha
de energías residuales, producto de actividades, procesos y fenómenos
naturales, sociales o económicos cotidianos. De la misma manera que
es prioritario el reciclaje de todo material constructivo, recuperar la más
mínima cantidad de energía generada accidentalmente, o premeditada-
mente desperdiciada, es primordial.

Bajo estos postulados, la operación de un edificio de cero energía de la


red15 en el siglo xxi requiere de un diseño específico que aproveche de forma
activa las propiedades de los materiales constructivos. De esta forma hace
eficiente y pertinente su presencia específica dentro de un entorno urbano
social y económicamente responsable con el planeta.
A principio del siglo xx, una competencia comercial por el contrato de la
construcción de la primera planta hidroeléctrica del mundo, ubicada en las
cataratas del Niágara, obligó a comparar los modelos de distribución eléc-
trica que proponían Nikola Tesla y Thomas A. Edison. La corriente alterna se
15 Cfr. Peter Gevorkian, Alternative Energy
Systems in Building Design (eua, Mc Graw- impuso ganadora durante más de cien años frente a la corriente directa en los
Hill’s GreenSource Series, 2010. modelos de distribución de las ciudades y edificios, principalmente para evi-
16 Utilizar como forma de distribución interna
de los edificios la corriente directa o tar la caída de tensión eléctrica causada por las grandes distancias existentes
continua implica también un sistema
de cableado diferente: los calibres del entre la hidroeléctrica y los asentamientos humanos. Hoy, la necesidad de
cableado son menores necesariamente, lo producir edificios autónomos y autosuficientes, finalmente autogeneradores
que propicia un ahorro en volúmenes de los
metales utilizados (aún se usan el cobre y el en el pie de obra de su propia energía eléctrica, permite que reconsideremos
aluminio para los cables), acción que puede
ser aplaudida no sólo económicamente sino
como necesaria y óptima la corriente directa para alimentar todo edificio de
ambientalmente. cero energía de la red.16 Es comprensible si tomamos en cuenta que todas las
formas de generación de energía alternativa y renovable producen una señal

72 Colección Textos FA o Tecnología


de fuerza electromotriz (Fem) de corriente directa y continua. En la natura-
leza no existen fuentes de energía con producción de corriente alterna de
alta frecuencia (sesenta ciclos). El regreso histórico y triunfal de la corriente
continua a las redes de distribución de un edificio de cero energía de la red17
nos debe recordar que no siempre se han tomado las decisiones correctas en
nuestra sociedad, y que nunca es demasiado tarde para reivindicar el camino
adecuado para una auténtica habitabilidad arquitectónica y urbana.

Un ejemplo mexicano de aplicación arquitectónica de materiales


emergentes y sustentables

La termoelectricidad ha sido desestimada ampliamente en casi todos los pla-


nes mundiales de desarrollo estratégico del sector energético como energía
viable, fundamentalmente por su desconocimiento, poca difusión, uso au-
sente y escasas aplicaciones conocidas. De esta forma se la ha excluido del
presente y del futuro como una tecnología principal confiable, renombrada
y considerable de energía eléctrica alternativa y renovable proveniente del
Sol. La inversión mundial enfoca sus recursos financieros primordialmente a
impulsar el desarrollo comercial e industrial de otras tecnologías y aplicacio-
nes de aprovechamiento de la radiación solar basadas en paneles de calenta-
miento de agua (Solar Thermal), plantas de Energía Solar Concentrada (csp) y
colectores Fotovoltaicos (pv), con ello se busca abatir de forma apreciable y
programada la demanda de energía necesaria para un desarrollo sustentable
de las actividades cotidianas de sociedades y ciudades hasta llegar paulatina-
mente a la autosuficiencia y al autoabasto en los próximos cincuenta años.18
Si bien todas estas formas de aprovechar la energía que el Sol nos su-
ministra diariamente poseen un impulso financiero y comercial importante,
influido y protegido por estas visiones y políticas energéticas internacionales,
es claramente conocido que aun al usar todas ellas en conjunto no se tie-
ne una oferta tecnológica completa que asegure aprovechar eficientemente
todo el espectro de la radiación solar (uv, ir y luz visible en su conjunto).
Se sabe, por ejemplo, que la tecnología fotovoltaica sólo puede aprovechar
como máximo, en eficiencia ideal y proliferación óptimas, hasta un 37%
del espectro completo de radiación solar recibido (sólo la perteneciente a
la franja de luz visible), puesto que la mayor parte de este espectro llega a
la superficie del planeta en forma de radiación Ultra Violeta (uv) e Infrarroja
(ir); esta última es la frecuencia más abundante en el abanico disponible de
la radiación solar, llega inclusive a representar casi un 52.8% del espectro
17 Cfr. Jaume Salom et al., “Understanding
completo y del total de la energía disponible suministrada a diario por el sol. Net Zero Energy Buildings: Evaluation
En la búsqueda mundial de energías alternativas y renovables para las of load matching and grid interaction
indicators”, ponencia leída en Proceedings
ciudades modernas y sus edificios, esta energía calorífica depositada en los of Building Simulation 2011: 12th
Conference of International Building
materiales de envolventes y pavimentos urbanos ha pasado desapercibida o Performance Simulation Association,
descartada, pues se ha considerado directamente inexplotable por la tecno- Sydney, Australia, noviembre 14-16, 2011.
18 Cfr. erec, European Renewable Energy
logía que se percibe y aprecia por la sociedad. En este rubro, el desarrollo re- Council, 2010, pp. 76.
ciente de la tecnología termoeléctrica de generación de potencia eléctrica se

El papel de los materiales emergentes y sustentables 73


04. El Efecto de Isla de Calor (uhi: Urban Heat ha asociado más con la captura o cosecha de calores residuales para operar
Island Effect) se manifiesta por una elevación
con componentes electrónicos reducidos. En contraste, existen los grandes
sensible de la temperatura por encima de la
esperada, debido a la acumulación de calor generadores termoeléctricos de las sondas espaciales, cuyo diferencial de
generado por el Sol de forma amplia, reiterativa temperatura es tomado del calor inherente de varillas de material radioactivo
y profusa en la masa de todos los materiales
constructivos, tales como el concreto armado y el frío del vacío espacial para producir un diferencial de tensión eléctrica
y el asfalto. Estos materiales son todos los útil. Por su parte, la tecnología termoeléctrica actual para la generación de
días irradiados por el Sol, acumulando en su
masa calor (espectro infrarrojo) que es disipado potencia eléctrica sólo se ha ocupado de cosechar pequeñas cantidades de
de regreso a la atmósfera principalmente energía residual presente en objetos con temperaturas extremas de operación
en forma de radiación. En las megalópolis
modernas, mientras que el concreto alcanza
y funcionamiento, como los motores de vehículos automotores y sus escapes
superficiales cercanas a los 60 °C, el diferencial de ignición,19 o para generar el suministro eléctrico para diminutos sensores
entre la temperatura del medio ambiente y
científicos colocados en lugares inaccesibles o lejanos, con temperaturas ex-
la temperatura superficial de las envolventes
de edificios y pavimentos urbanos puede ser tremas; por ejemplo en el subsuelo terrestre, en el fondo marítimo, en hornos
mayor a 20 °C. En la ciudad, las personas industriales, cámaras de refrigeración y tanques de ebullición.
perciben en realidad más calor que el esperado
y pronosticado Se hace imprescindible dirigir la mirada a la energía calorífica del Sol acu-
mulada y desperdiciada diariamente en todas las superficies de envolventes
y pavimentos arquitectónicos y urbanos. No sólo para tratar de mejorar la
calidad de vida de los habitantes de las urbes contemporáneas, sino para
19 Cfr. Jorge Vázquez et al., “State of the Art poder aprovechar el potencial de una nueva fuente de energía renovable y
of Thermoelectric Generators based on
Heat Recovered from the Exhaust Gases
alternativa que se vislumbra abundante e inagotable, presente en la masa de
of Automobiles” (ponencia leída en la cada uno de los materiales constructivos de todas las poblaciones y ciudades
Universidad Pontificia Comillas, Escuela
Técnica Superior de Ingeniería, Instituto de del planeta. De esa manera, podemos explotar afirmativamente la potencia
Investigación Tecnológica, Madrid, 2002). eléctrica renovable de la “piel” del entorno construido mientras mitigamos,
20 Conocido por sus siglas en inglés uhi: Urban
Heat Island Effect. por ejemplo, contundentemente el efecto de isla de calor urbano20. Este es un

74 Colección Textos FA o Tecnología


21 Cfr. Irina Tumini, “Estrategias para reducción del
efecto de isla de calor en los espacios urbanos.
fenómeno de cambio climático local que aqueja a nuestras grandes ciuda- Estudio aplicado al caso de Madrid” (ponencia
leída en Sustainable Building Conference, gbc
des, cuya causa fundamental yace en la acumulación recurrente y sistemáti- -España, 2005).
ca de la energía infrarroja directa y difusa en la masa de todos los materiales 22 El efecto termoeléctrico que se presenta en
ciertos materiales cerámicos y aleaciones
constructivos de la ciudad.21 Gracias al desarrollo reciente de la tecnología metálicas permite desarrollar para la
arquitectura aplicaciones termoeléctricas
termoeléctrica solar de las aplicaciones arquitectónicas y urbanas específicas solares funcionales y operativas. Esto ofrece
que se han diseñado en México podemos combatirlo. Las grandes superficies la posibilidad de aplicaciones de refrigeración/
calefacción termoeléctrica en la arquitectura,
construidas calientes de toda urbe moderna son ahora una gran mina a cielo así como la generación y la cosecha de
energía eléctrica en envolventes de edificios
abierto de abundante, limpia, constante y confiable energía eléctrica que y pavimentos de ciudades. Un material
debemos explotar. termoeléctrico puede generar electricidad
a partir de un diferencial de temperaturas
existente entre dos puntos de referencia térmica
La tecnología termoeléctrica solar desarrollada: (efecto Seebeck), o generar simultáneamente
absorción y emisión de calor al aplicarle una
un material arquitectónico emergente y sustentable carga eléctrica importante y externa (efecto
Peltier).
23 El prototipo y el sistema constructivo
El efecto de isla de calor urbano se puede mitigar si la mayor parte del calor desarrollados fueron realizados con el apoyo
de la Universidad de la Salle Bajío, bajo la
almacenado en las superficies urbanas expuestas al Sol se transforma –por dirección del autor (adscrito al Posgrado de
Arquitectura de la unam), asociado al maestro
lo tanto se disipa– para generar electricidad limpia proveniente de la radia- en Diseño Arquitectónico Juan Gabriel
ción solar, mediante el uso de la tecnología termoeléctrica. En pruebas de Hernández Medina (La Salle), acompañado
de un equipo transdisciplinario integrado
laboratorio, con el prototipo desarrollado se ha alcanzado hasta un 2.37% de por diseñadores ambientales, ingenieros
transformación de calor en electricidad. Es decir, se ataca la causa directa del en electrónica, diseñadores industriales y
arquitectos, ubicados en León, Guanajuato,
problema y se controla la cantidad de energía que permanece en la masa de México.
24 La materialización tecnológica de un pavimento
los materiales irradiados por el Sol. Debido a su capacidad para almacenar de concreto armado prefabricado termoeléctrico
calor a altas temperaturas y tiempo prolongado, las superficies urbanas y las solar debe responder a un proceso metodológico
específico para crear su prototipo operacional
envolventes de edificios actúan como un depósito gigante de la energía tér- y funcional. Por lo mismo, fue utilizado de
forma específica el modelo de Stan Sadin y
mica solar aún por explotar. El prototipo del pavimento de concreto armado Ray Chase, establecido en 1995, llamado trl
prefabricado termoeléctrico solar22, desarrollado y dirigido con personal de la (Technology Readiness Level). El propósito
fundamental del uso del modelo trl es permitir
unam en colaboración con la Universidad de la Salle Bajío de 2010 a 201323, un proceso transparente y claro, paso a paso,
transforma el calor almacenado en su masa directamente expuesta al Sol en para la creación de prototipos. Al mismo tiempo
es una medida para definir el nivel de madurez
potencia eléctrica útil para creaciones arquitectónicas y urbanas. Igualmen- de las tecnologías que se desarrollan antes
de ser entregadas a su destino previsto. La
te, ha demostrado preliminarmente reducir –de forma efectiva y medida de metodología prevé que en el desarrollo de toda
acuerdo a las leyes de la termodinámica– la temperatura superficial del pavi- nueva tecnología existen niveles evidentes
de paulatina evolución y aproximación, ya
mento de concreto que actúa como colector de esta energía y como batería que está sujeta a la experimentación, el
perfeccionamiento y un proceso creciente de
de almacenamiento térmico. Recordemos que al tocar con la mano todos los prueba que se acerca paulatinamente a las
días un muro de concreto expuesto al Sol percibimos la temperatura del calor condiciones reales para la que fue concebida.
Las nuevas tecnologías, una vez adecuadamente
que permanece acumulado en su masa, el cual puede alcanzar hasta 59 °C de probadas y mejoradas, suficientemente
temperatura superficial propiciada por el espectro infrarrojo del Sol. maduras, son incorporadas al entorno para
su uso final. Los niveles trl proporcionan un
Una vez alcanzado su nivel de desarrollo tecnológico y diseño trl 624, du- punto de referencia y comprensión común y
claro a todos los participantes del proceso de
rante una prueba de 72 horas de operación continua a la intemperie y bajo la desarrollo, sobre el estatus real y actual de
radiación solar directa, dado un diferencial de temperatura presente entre la desarrollo de las nuevas tecnologías; además
permiten decidir el momento ideal, aquél con
superficie de concreto y el aire, demostró poder generar una tensión máxima menor riesgo de falla, para iniciar con éxito su
necesaria transferencia tecnológica, comercial
de 3 250 mV/segundo por metro cuadrado construido. Acumuló finalmente e industrial.
una carga total en tres días de 112 723.2 culombios (37 574.4 culombios por 25 Cfr. Ernesto Ocampo Ruiz, “Nanotecnología
aplicada a la Arquitectura: La investigación
día). Hablando de potencia eléctrica total por metro cuadrado construido, arquitectónica de nuevos materiales y sistemas
el prototipo del pavimento de concreto armado prefabricado termoeléctrico constructivos como detonante en la creación
de nuevos nichos laborales para el arquitecto”,
solar25 genera un máximo en condiciones óptimas de 10.58 watts/segundo, Revista Nova Scientia 5:3 (1, 2010), pp. 189-190.
que lo coloca en nivel competitivo con otras tecnologías alternativas y reno-

El papel de los materiales emergentes y sustentables 75


vables de generación de energía. La tecnología termoeléctrica solar, por lo
tanto, ofrece en el futuro una solución adicional contundente al fenómeno
del efecto de isla de calor urbano, pues ataca directamente su causa: reduce
la acumulación de calor presente en la masa de los materiales constructivos
urbanos, transformando el diferencial de temperatura presente en un diferen-
cial de tensión eléctrica útil.

Conclusión

En el presente se aprecia rotundamente la capacidad tecnológica en la dis-


ciplina arquitectónica para aprovechar todas las formas de generación de
energías renovables y alternativas, mediante una cosecha de energía eficien-
te que permite finalmente la factibilidad de construcción de edificios de cero
energía de la red. A través de ejemplos de materiales emergentes y susten-
tables tales como el prototipo del pavimento de concreto armado prefabri-
cado termoeléctrico solar mencionado, invento mexicano, se concibe hoy
05. Las granjas eólicas son cosechadores de energía
eléctrica gigantescos. El viento no sopla todo el de diferente manera, por ejemplo, el efecto de isla de calor urbano; asimis-
día, por lo que cuando las aspas se mueven por las mo apreciamos un rico e inagotable campo de cosecha energética al pie de
corrientes de aire, lo hacen de forma intermitente,
discontinua y al azar. Cuando existe la oportunidad,
nuestros edificios y ciudades, presente en cada metro cuadrado de construc-
el equipo debe almacenar cada pico de energía ción de fachadas, cubiertas y pavimentos, aún no explotado. Dado que la
cosechado, y construir paulativamente una carga tecnología desarrollada respeta los materiales tradicionales de construcción
eléctrica útil en los sistemas de almacenamiento por
baterias de la arquitectura y el urbanismo, todos ellos se convierten en potenciales
colectores termoeléctricos solares. La revisión que se ha hecho sobre los
otros recursos energéticos renovables aconseja dar verdadera importancia
a esta nueva fuente de energía renovable históricamente demeritada, así
como a toda energía residual –generada por la actividad humana– olvidada
o menospreciada. Dado que nuestra necesidad más apremiante es encontrar
nuevas alternativas viables de energía limpia y renovable ante la emergen-
cia ambiental que vivimos, es prioritario y estratégico buscar un incremento
del rendimiento y la capacidad presente de las soluciones de generación de
energías renovables que se han desarrollado, para acercar real y contunden-
temente, a corto plazo, a la sociedad, a la economía y al planeta a un futuro
energético y ambiental de mejor e incuestionable calidad y habitabilidad.

76 Colección Textos FA o Tecnología


Referencias

Benyus, Janine M. Biomimicry, Innovation Inspired by Nature. eua: Harper Peren-


nial, 1998, 308 pp.
Bullis, Kevin. "Solar Downturn Casts a Shadow Over Innovation: With no one bu-
ying new equipment, solar companies are looking to make the best of existing
technology". mit Technology Review Energy News, 2 de abril de 2013.
California Energy Commission: Public Interest Energy Research Program. Pier Final
Project: Urban Surface Modification as a Potential Ozone Air-Quality Improve-
ment Strategy in California. eua: Altostratus Inc, 2005.
Day, George S. et al. Gerencia de Tecnologías Emergentes. Buenos Aires: The Whar-
ton School of the University of Pennsylvania, Editorial Javier Vergara / Business,
2001, 509 pp.
Erec [European Renewable Energy Council]. Rethinking 2050. A 100% Renewable
Energy Vision for European Union. Bruselas: Erec, 1ra edición, 2010, 76 pp.
Fernández del Castillo de la Concha, Alejandro. "Certificación de Materiales de
Construcción con Principios Aplicados de Biomimética". Tesis de grado para
obtener la Maestría en Arquitectura. Programa de Maestría y Doctorado en Ar-
quitectura, Universidad Nacional Autónoma de México, 2012, 181 pp.
Gevorkian, Peter. Alternative Energy Systems in Building Design. eua: Mc Graw-
Hill’s GreenSource Series, 1ra edición, 2010, 545 pp.
Solar Power in Building Design. eua: Mc Graw-Hill’s GreenSou-
rce Series, 1ra edición, 2008, 506 pp.
Gibbons, Michael et al. La nueva producción del conocimiento. La dinámica de la
ciencia y la investigación en las sociedades contemporáneas. Barcelona, España:
Ediciones Pomares-Corredor, 1ra edición, 1997, 240 pp.
Ocampo Ruiz, Ernesto. "Nanotecnología aplicada a la Arquitectura: La investiga-
ción arquitectónica de nuevos materiales y sistemas constructivos como deto-
nante en la creación de nuevos nichos laborales para el arquitecto". Revista
Nova Scientia 5, vol. 3 (1), 2010. Universidad de la Salle Bajío, León de los
Aldamas, Guanajuato, México, pp. 179 – 193.
Salom, Jaume, Joakim Widen et al. "Understanding Net Zero Energy Buildings: Eva-
luation of load matching and grid interaction indicators". Ponencia presentada
en Proceedings of Building Simulation 2011: 12th Conference of International
Building Performance Simulation Association, Sydney, Australia, noviembre,
2011.
Tumini, Irina. "Estrategias para reducción del efecto de isla de calor en los espacios
urbanos. Estudio aplicado al caso de Madrid". Ponencia leída en Sustainable
Building Conference (SB10mad), Green Building Council-España, Madrid 2005.
Vázquez, Jorge et al. "State of the Art of Thermoelectric Generators based on Heat
Recovered from the Exhaust Gases of Automobiles". Ponencia leída en la Uni-
versidad Pontificia Comillas, Escuela Técnica Superior de Ingeniería, Instituto
de Investigación Tecnológica, Departamento de Fluidos y Calor, Madrid, 2002.

El papel de los materiales emergentes y sustentables 77


78 Colección Textos FA o Tecnología
Endurecimiento de cementos tipo Portland
inducido por fosfatos y silicatos

Alberto Muciño Vélez


Eligio Alberto Orozco Mendoza

Introducción

Los primeros estudios empíricos sobre las características mecánicas del con-
creto sólo conectaban la resistencia de una pasta de cemento con su relación
agua/cemento (a/c). En la actualidad se sabe que la resistencia de una pasta
es función de la microestructura que se desarrolla durante el proceso de
hidratación. La resistencia de una mezcla con una determinada relación a/c
depende del grado de hidratación; de las características químicas y físicas
del cemento; de la temperatura a la que se hidrata; del contenido de aire en
la mezcla, etc. Por esta razón se considera necesario relacionar el desarrollo
o evolución de la microestructura de la pasta de cemento con sus propieda-
des mecánicas y, en particular, con su resistencia a la compresión.
A continuación se presentan algunos resultados obtenidos recientemente
sobre el proceso de endurecimiento provocado por los productos de la hi-
drólisis del cemento que se empiezan a formar desde la etapa de fraguado
y que evolucionan en el tiempo (imagen 1). La norma (Norma Mexicana
01. Descripción esquemática del
nmx c-414-onncce y la Norma Norteamericana  astm c-150) sugiere que el proceso de hidratación de la pasta de
proceso de endurecimiento prácticamente se completa después de 30 días cemento. Fuente: Yubao et al.

–generalmente se toma como referencia 28 días–; entonces se hacen pruebas


de resistencia a la fractura para verificar el nivel de endurecimiento de la
pasta de cemento, de acuerdo al procedimiento de la tesis de L. E. Carcamo.1
1 Luis Enrique Carcamo Pérez, “Revisión,
También es práctica común empezar a medir el endurecimiento del cemen- Análisis y Aplicación de la Nanotecnología
en la Generación y Mejora de Materiales
to a partir del séptimo día de la fabricación de la pasta.2 Se sabe ahora que esta Constructivos. Estudio de Morteros de
práctica está vinculada con la evolución de ciertos procesos microscópicos Cemento con Adiciones de Nanosílice”
(tesis de licenciatura, Universidad Austral
que suceden en el cemento; es decir, con la interacción de las microestruc- de Chile, Facultad de Ciencias de la
turas que se forman a partir de los compuestos hidrolizados. En nuestro caso Ingeniería, 2006).
2 De acuerdo a Adam Neville, Tecnología
suponemos que interaccionan sinergéticamente con el fosfato tricálcico (tcp) del Concreto, 1ra. ed., México, Instituto
Mexicano del Cemento y del Concreto, A.C.,
que usamos como aditivo. Cemento Portland, 1999.
Por ejemplo, se sabe que el tcp en en agua desionizada se transforma en 3 L. Yubao, X. Zhang y K. Groot, “Hidrolysis
and phase transition of TCP”, Biomaterials
Apatita-tcp,3 éste es un compuesto nuevo cuya estructura cristalina incluye mo- 18: 1997, 737-41.
léculas de agua que pueden interactuar con los iones H-1 o OH-1. La aportación

79
que estas interacciones podrían dar al proceso de endurecimiento del cemento
básico es un problema de investigación correspondiente al área Ciencia e In-
geniería de Materiales, por lo cual no se abordará tal temática en este proyecto
de investigación.
En la imagen 2 se describe esquemáticamente cómo evolucionan los com-
puestos hidrolizados que promueven el endurecimiento del cemento. Se in-
cluye la etapa de nucleación (seting-fraguado) y de crecimiento (hardenning-
endurecimiento) de tales estructuras.
Empezaremos nuestra discusión alrededor de los resultados referentes al
endurecimiento correspondiente a siete días de envejecimiento de las probe-
tas de cemento Portland y cemento Portland con tcp 1% en peso; este último
corresponde a la mezcla que generó mayor resistencia mecánica a la fractura
en compresión.
Como primera aproximación seguimos un procedimiento de ajuste inicial
de las curvas al banco de difractogramas de compuestos conocidos por la
iucr (Unión Internacional de Cristalografía).4 Para un análisis más detallado
se tendría que recurrir a otros métodos de ajuste como el de Rietveld,5 que
permite conocer con minucia las proporciones de todas las fases cristalinas
presentes. Este tipo de análisis rebasa los alcances de este trabajo.

02. Descripción esquemática de


los productos de reacción y la
microestructura que se desarrolla
durante la hidratación.
Fuente: S. Mindess y J. F. Young,
Concrete, Prentice-Hall International
Series in Civil Engineering and
Engineering Mechanics, Nueva
Jersey: Prentice Hall, 1981

4 H. Wondratschek y J. Neubüser,
“Determination of the symmetry elements
of a space group from the ‘general
positions’ listed in the international tables
for X-ray crystallography. Vol. I”, Acta.
Crystallographica 23: 1967, 349-52.
5 H. M. Rietveld, “A profile refinement
method for nuclear and magnetic
structures”, Journal of Applied
Cristallography 2: 1969, 65-71;
D. Estefanescu, “Methodologies for
Modeling of Solidification Microestructure
and Their Capabilities”, isij International 35
(6) :1995, 637-50.

80 Colección Textos FA o Tecnología


Desarrollo experimental

El proceso experimental que a continuación se describe se tomó del trabajo


del Dr. C. P. Huang.6
Como se ha mencionado, el trabajo se centra en la síntesis de componen- 03

tes de cemento Portland tipo I (de uso común en México), con nanopartículas
incorporadas para determinar sus propiedades mecánicas. El comportamien-
to mecánico se determinó a partir de pruebas de compresión y de flexión en
tres puntos. Todo el trabajo experimental se realizó en el Instituto de Física
de la unam. La secuencia de actividades fue la siguiente:

•• Fabricación de probetas con cemento básico


•• Fabricación de los cementos con adición de las nanopartículas 04

•• Fabricación de probetas para pruebas mecánicas


•• Realización de pruebas de compresión y flexión en tres puntos
•• Caracterización de la microestructura con y sin nanopartículas, por
microscopía electrónica de barrido sem
•• Composición química por microanálisis, eds y determinación de las fa-
ses cristalinas presentes por difracción de rayos X (drx)

Material y método 05

Preparación de la muestra
Se elaboraron 12 moldes de tubo de pvc de 1.25 cm de diámetro por 2.5 cm
de altura; la proporción de agua-cemento fue obtenida del artículo escrito
por el Dr. C. P. Huang,7 donde se menciona que por cada 6.27 gr de cemento
se deben utilizar 15 ml de agua, por cada molde. Estas muestras se realizan
con el fin de aplicar pruebas de compresión, mediante la máquina de prue-
06
bas universal Shimadzu, mod. ag-100 kng (ver imagen 3-6).
El cemento que se utilizó es de marca comercial –cemento Cruz Azul–
tipo Portland II. También se elaboraron moldes de dimensiones de 1.25 cm
de diámetro por 6.00 cm de longitud con el fin de realizar cortes, obtener 03. Máquina Shimadzu, mod. AG-100
paralelepípedos rectangulares y, posteriormente, sacar estas muestras para kng, en la que se llevaron a cabo las
pruebas de compresión y flexión en
llevar a cabo pruebas de flexión de tres puntos. tres puntos, la cual se encuentra en
Se diseñaron y fabricaron estos moldes con el fin de realizar pruebas de el Instituto de Física, Laboratorio de
Cristalofísica y Materiales Naturales
resistencia a la fractura en compresión y a la flexión, en las cuales se trató de
simular el comportamiento de los elementos estructurales, ya sea en columnas 04-05. Selección de material para
vaciado de los moldes
(compresión), o en vigas (flexión).
06. Moldes de fabricación del cemento
para pruebas de compresión
Materiales

Cemento 6 M. Aiu, y C. P. Huang, “The Chemistry and


Se utilizó cemento Portland de la marca Cruz Azul, ya que en el estudio de Physics of Nano-Cement”. Report submitted
to NSF-REU, University of Delaware, 2006.
mercado se encontró que es uno de los más comunes, principalmente en los 7 Ibid.
trabajos de sitio, y con el cual se pueden realizar mezclas pequeñas.

Endurecimiento de cementos tipo Portland inducido por fosfatos y silicatos 81


07. Saco de cemento utilizado para
llevar a cabo muestras de laboratorio.
Fuente: http://www.cruzazul.com.mx/
productos/tipo_II.htm
08. Bote de fosfato tricálcico, beta- 07 08 09
fosfato de calcio β-Ca(PO4)2 de Fluka.
Fuente: archivo personal de Alberto
Muciño Vélez
09. Agua desionizado utlizada durante
la preparación de las muestras

10. Recipiente en cuyo interior se


encuentran TCP y balines, antes de
llevar a cabo la molienda
11. Máquina donde se efectuó la
molienda de TCP con una duración de 10
12 hrs.
11

El cemento Cruz Azul tipo II modificado cpO 30-r (composición no repor-


tada) satisface ampliamente las especificaciones de la Norma mexicana nmx
c-414-Onncce y de la Norma norteamericana astm c-150. Este cemento pasa
por un estricto control de calidad y puede ser empleado en todo tipo de obras,
desde la autoconstrucción hasta aquéllas que exigen de la ingeniería y la ar-
quitectura. Se utiliza ampliamente en la industria de los prefabricados y pre-
12 mezclados, así como en la construcción de puentes, aeropuertos, edificios y
conjuntos habitacionales, entre otras edificaciones. Por su composición quími-
12. Moldes de fabricación del
cemento para pruebas de Flexión de ca, el cemento Cruz Azul tipo II modificado cpO 30-r genera menor calor de
Tres Puntos hidratación que sus similares, con lo que se disminuye notablemente la forma-
ción de fisuras y se hace resistente al ataque moderado de agentes agresivos
del agua y del suelo, principalmente de sulfatos y salitre.8

Fosfato tricálcico (TCP)


También se empleó el beta-fosfato de calcio β-Ca(pO4)2 de Fluka, pureza ≥
96% para obtener el cambio de fases. Se tomó como referencia la tesis “Síntesis
y Estudio de Propiedades Físicas de Cerámicas Bioeutécticas” para la aplica-
ción de este material. La autora explica que las cerámicas basadas en fosfato
de calcio y silicato de calcio son posibles sustitutos de los huesos, ya que
“una de las fases del fosfato tricálcico se disuelve al estar en contacto entre el
hueso propiciando la formación de hidroxipatita, este sistema presenta poro-
8 Cementos Cruz Azul, descripción de sidad en el medio fisiológico, lo cual es deseable en los implantes, para que
cemento Portland, en http://www.cruzazul.
com.mx/productos/tipo_II.html. [s.f.c.] el tejido óseo crezca dentro de la estructura porosa”.9 Por ello P. N. de Aza10
9 Erendira Martínez Acevedo, “Síntesis y colaboradores han bautizado a este material como cerámica bioeutéctica.
y Estudio de Propiedades Físicas de
Cerámicas Bioeutécticas” (tesis de
licenciatura, México, 2007). Agua desionizada
10 P. N. de Aza, A. H. de Aza, S. de Aza,
“Crystalline Bioceramic Materials”, Boletín El agua desionizada es aquella de la cual se han eliminado cationes como
de la Sociedad Española de Cerámica y
Vidrio, 44:3, 2005,135-45. los de sodio, calcio, hierro, cobre, etcétera, y aniones como el carbona-
to, fluoruro, cloruro, etcétera, mediante un proceso de intercambio iónico.

82 Colección Textos FA ⓞ Tecnología


13-15. Selección de material para
el vaciado de los moldes
13 14 15

Emplearemos este tipo de agua para eliminar el efecto que pudieran tener
otros iones en el proceso de hidratación de las muestras por estudiar.
Para la obtención de partículas submicrométricas (nanométricas), en el
caso del tcp se seguió un procedimiento de molienda en seco (ver imagenes
10 y 11). Las partículas así obtenidas se mezclaron directamente con el pol-
vo de cemento o se prepararon en una suspensión con el agua desionizada,
para agregar posteriormente el cemento Portland.

Análisis de muestras

Las técnicas que se utilizaron fueron: Difracción de Rayos X (dxr) y Micros-


copio electrónico de barrido (sem), con el objetivo de identificar las fases
presentes de microestructura.
En particular, la técnica de dxr proporciona información sobre la compo-
sición química y estructura cristalina de un material. Cada sólido cristalino
posee un patrón característico de difracción que puede emplearse para su
identificación.
El tipo de muestras probables que se emplearon en el estudio aparecen en
la siguiente tabla:
Lote de muestras por analizar
Prueba de Prueba de flexión Microscopía Composición Composición
compresión de tres puntos electrónica de química por drx química por edx
barrido
Cemento básico X X X X X

Cemento desecado X X X X X

Cemento con X X X X X
nanopartículas de tcp
(molienda)
Cemento con partículas X X X X X
de tcp

Endurecimiento de cementos tipo Portland inducido por fosfatos y silicatos 83


Resistencia a la fractura en compresión (MPas)

16
Resistencia a la fractura en compresión (MPas)

17

16. Efecto de la concentración del TCP


(porcentaje en peso) en la resistencia
a la fractura en compresión

17. Gráfica de proceso de


endurecimiento de las muestras
cemento básico, cemento-TCP 1% y
cemento TCP 5%.
18. Micrografía de cemento básico a
28 días de envejecimiento

18

84 Colección Textos FA ⓞ Tecnología


Las características son las siguientes:

•• Cemento básico es aquélla que sólo es la mezcla de cemento y agua


con la proporción descrita anteriormente, con un tiempo de fraguado a
medio ambiente.
•• Cemento desecado es la mezcla de cemento y agua cuyo tiempo de
fraguado fue intervenido, ya que estas muestras se introdujeron a una
campana de vacío para reducir el aire que se encuentra en las muestras
y así eliminar burbujas.
•• Cemento con nanopartículas de tcp (molienda). Ésta se compone de la
mezcla de cemento y la adición de nanopartículas en proporción de 500
partes por millón (ppm) de la masa en cemento y posteriormente en agua.
•• Cemento con partículas de tcp (5% con respecto a su masa). Después de
que el tcp pase por una molienda de 12 hrs. para generar nanopartículas
se agregará agua en la proporción adecuada.

En este trabajo no se investigó el proceso de fraguado de las muestras antes


mencionadas, pues centraremos nuestra atención en el proceso de endureci-
miento, el cual caracterizaremos a partir de pruebas de resistencia a la fractura.
Después del fraguado y un desecado parcial a temperatura ambiente (7
días), se desmontaron las muestras del molde y se midieron su diámetro y
longitud para calcular su esfuerzo-deformación.

Resultados

Se muestra en la imagen 16 la gráfica de la variación de esfuerzo máximo a la


fractura como función del porcentaje en peso del tcp agregado a la pasta de
cemento en muestras endurecidas durante siete días. En ella se expresa que el
esfuerzo máximo crece con la concentración de tcp hasta alcanzar un valor de
saturación alrededor del 1%.11
A partir de este resultado se investigó el proceso de endurecimiento de las
muestras para dos concentraciones de tcp, 1% y 5% en peso. La imagen 17
muestra los resultados que se obtuvieron; en ella se incluyeron los valores
de endurecimiento de muestras de cemento básico para un período de 7 a
39 días.12
Por lo tanto es claro que durante el envejecimiento se generan estructuras que
aumentan la resistencia mecánica del cemento Portland. En la imagen 18 pre-
sentamos detalles de la superficie de fractura de una probeta de cemento básico
(envejecida por 28 días) en la que se aprecian las estructuras que envuelven a las 11 Alberto Muciño Vélez, “Concreto
nanotecnológico. Resistencia Mecánica
partículas de C3S o C2S, a partir de las cuales crecen las fibras ya mencionadas; de Cementos Reforzados con Partículas
marcados en la micrografía se ven los huecos generados por las partículas que Submicrométricas” (tesis de maestría,
México, df, 2010).
se desprendieron durante la fractura.13 12 Ibid.
13 Ibid.

Endurecimiento de cementos tipo Portland inducido por fosfatos y silicatos 85


Conclusiones

De la investigación experimental podemos extraer las sigui- •• Comparado con el caso de “Revisión, Análisis y Apli-
entes conclusiones: cación de la Nanotecnología en la Generación y Me-
jora de Materiales Constructivos. Estudio de Morteros
•• El cemento Portland tipo II se endurece al agregarle de Cemento con Adiciones de Nanosílice”, donde se
nanopartículas de fosfato tricálcico experimentó en cemento con arena (como consoli-
•• Esto se observa tanto en las pruebas de resistencia a dante) y 1% en peso de nanopartículas SiO2, neutro
la fractura en compresión como en las de flexión en nivel de endurecimiento a 28 días, es muy parecido;
tres puntos 14% obtiene L. E. Carcamo14; 15%, nosotros
•• El efecto de endurecimiento es mayor cuando las partí- •• Para hacer la comparación correcta con ese resul-
culas se agregan en forma de suspensión líquida que si tado, tendríamos que repetir los experimentos de
se hace la mezcla mecánica con los polvos de cemento cemento-tcp 1% en peso empleando también arena
•• El endurecimiento se presenta desde el inicio del en- como consolidante
vejecimiento de las muestras, posiblemente desde la •• Los experimentos realizados en esta investigación
etapa de fraguado del cemento (primeras horas des- siguieron procedimientos más cercanos al área Cien-
pués de hacer la mezcla de los reactivos y el agua) cia e Ingeniería de Materiales que al área de interés
•• El efecto de la fracción en peso de tcp en el endure- tecnológico. Por esto, usar el tipo de sustancias em-
cimiento del cemento indica que por arriba del 1% pleadas aquí (tcp y agua desionizada) sería prohi-
se alcanza el nivel de saturación en la resistencia a la bitivo económicamente para fabricar elementos de
fractura en compresión construcción
•• La evolución del endurecimiento con el tiempo de
envejecimiento de las muestras es como sigue:
El objetivo era llegar a una comprensión de la nanotecno-
Al principio (7 días de envejecimiento), la brecha entre logía en los materiales, principalmente en aquellos que se
el esfuerzo de fractura del cemento básico y el cemento- aplican a la construcción. Asimismo, se propuso buscar la
tcp 1% en peso es del 70% adhesión adecuada para aumentar las propiedades de di-
Al final (39 días de envejecimiento), la brecha se reduce chos materiales con el fin de marcar líneas maestras en el
a 15% diseño e investigación de algunos que se aplicaran a los
requerimientos adecuados para su empleo futuro en la ar-
•• Sería necesario hacer un estudio más detallado de la quitectura, ya que en este campo difícilmente se llega a una
microestructura inicial que da lugar a esos niveles de investigación científica. La investigación pudo ser más am-
endurecimiento para tratar de retenerla durante todo plia y de mayores alcances, pero debido a la falta de recur-
el envejecimiento sos y tiempo se restringió a la constatación científica, por
medio de pruebas de laboratorio, del elemento que puede
reforzar al cemento.

14 Idem

86 Colección Textos FA o Tecnología


Referencias

aci (American Concrete Institute). Guía para la durabilidad del hormigón. Reporte aci
Comité 318S. Estados Unidos, 2001, 495 p.
Aiu, M. y C. P. Huang, “The Chemistry and Physics of Nano-Cement”. Reporte presen-
tado ante la nsf-reu, University of Delaware, 2006.
Bentz, D., P. Coveney, E. Garboczi, M. Kleyn y P. Stutzman. "Cellular automaton si-
mulations of cement hydration and microstructure development".  Modell. Simul.
Mater. Sci. Eng., 2 (4) 1994, 783-808.
Bentz, D. "Three- Dimensional Computer Simulation of Portland Cement Hydration
and Microstructure Development". Journal of American Ceramic Society, vol. 80,
núm. 1 (1997), 3-21.
Estefanescu, D. "Methodologies for Modeling of Solidification Microestructure and
Their Capabilities". isij International, vol. 35, núm. 6 (1995), 637-650.
Ginebra Molins, María Pau. "Desarrollo y Caracterización de un Cemento Óseo Basado
en Fosfato Tricálcico-a para Aplicaciones Quirúrgicas". Tesis de doctorado. España,
Universidad Politécnica de Cataluña, 1996. Disponible en http://www.tesisenxarxa.
net/TESIS_UPC/AVAILABLE/TDX-0219109-115710//TMPGM1de7.pdf [s.c.f.].
Gobierno de Navarra. "Calidad del aire". Disponible en http://calidaddelaire.navarra.
es/calidadaire/efectosglobales_efectoinvernadero.cfm [s.f.c].
Informe Brundtland. Consultado el 24 de octubre de 2007 www.desarrollosostenible.
wordpress.com/2006/09/27/informe-brundtland/ - 17k –
Jasso, J. Los Sistemas de Innovación como espacios regionales, sectoriales y empresa-
riales: Características y taxonomía. México: cide, 2000.
Luis Godoy. "Introducción". Microestructura del cemento. http://www.uprm.edu/civil/
circ/newsite/webresearchers/LuisGodoy/courses/INCI6017/10%20Materiales/Mi-
croestructura%20del%20cemento.pdf [s.f.c]
Martínez Acevedo, Erendira. "Síntesis y Estudio de Propiedades Físicas de Cerámicas
Bioeutécticas". Tesis de licenciatura, México, unam, 2007.
Mindess S. y J. F. Young. Concrete. Colección "Prentice-Hall International Series in
Civil Engineering and Engineering Mechanics". Nueva Jersey: Prentice Hall, 1981.
Naredo, José Manuel. “Sobre el origen, el uso y el contenido del término sostenible”.
Recuperado el 24 de octubre de 2007 de http://habitat.aq.upm.es/select-sost/
Ocampo Ruiz, Ernesto. "Nanotecnología y Arquitectura". Revista del Instituto Mexica-
no del Cemento y del Concreto (febrero-1998). Disponible en http://www.imcyc.
com/revista/1998/febrero/nanfeb98.htm
Rietveld, H. M. "A profile refinement method for nuclear and magnetic structures".
Journal of Applied Crystallography 2 (junio-1969), 65-71.
Sierra Bravo, Restituto. Tesis doctorales y trabajos de investigación científica; metodo-
logía general de su elaboración y documentación. Madrid: Paraninfo. 1999. http://
serviciosva.itesm.mx/cvr/investigacion/doc0059.htm.
Torres Gastelú, Carlos Arturo. "Acumulación y Socialización de Capacidades durante la
Gestión Tecnológica: caso Cemex". Tesis de doctorado, México, unam, 2009. Consul-
tada el 22 de mayo de 2009 http://www.eumed.net/tesis-doctorales/2009/catg/
Wondratschek, H. y J. Neubüser. "Determination of the symmetry elements of a space
group from the ‘general positions’ listed in the international tables for X-ray crysta-
llography". Acta Crystallographica 23 (septiembre-1967), 349-352.
Yubao L., X. Zhang y K. de Groot. "Hidrolysis and phase transition of alpha-tricalcium
phosphate". Biomaterials 18, (mayo-1997), 737-741.
Young J. F., R. J. Gray, S. Mindess y A. Bentur. The science and technology of civil engi-
neering materials. Nueva Jersey: Prentice Hall, 1998.

Endurecimiento de cementos tipo Portland inducido por fosfatos y silicatos 87


Administración de los procesos productivos
en arquitectura: alcances y beneficios para el
quehacer arquitectónico
Jorge Quijano Valdez

Introducción

El ejercicio integral del arquitecto se ha modificado de manera importante


en los últimos tiempos, debido a que múltiples disciplinas intervienen con
sus propios asesores para el desarrollo de un proyecto arquitectónico. Esto ha
ocasionado que la coordinación de las tecnologías –incluyendo desde luego
las tecnologías de las comunicaciones (tic)– se haya convertido en un factor
de primera importancia.
Actualmente, los arquitectos como emprendedores, directivos, inversionis-
tas, líderes de opinión, competidores y consumidores, que participan en acti-
vidades públicas y privadas, están atrapados en la red global. La clave de esta
situación se da por la acción conjunta de la creatividad, la estrategia y la ges-
tión de los vínculos que se generan. El reto es entonces innovar, tener fidelidad
y crear propuestas éticas y sostenibles a través de la comunicación, las rela-
ciones humanas, la cooperación, el compromiso y la tecnología. Es necesario
implementar estrategias de planeación y controles del proceso productivo para
ser más competitivos en el ámbito de la arquitectura y disciplinas afines, con
el propósito de llevar a cabo una eficiente administración de los proyectos –o
project management, para usar la frase inglesa que ha ganado tanto prestigio
a nivel internacional–, lo cual implica cumplir metas y objetivos dentro de la
calidad, el presupuesto y el tiempo requeridos.
Para ello, profesionistas y estudiantes precisan conocer las mejores prácti-
cas internacionales en la coordinación o administración de proyectos, pues
al conocer las competencias de la administración de proyectos, del diseño y
de la construcción –ya que consideramos un proyecto arquitectónico desde
la idea y su planeación hasta la entrega y puesta en marcha, incluyendo las
estrategias de mantenimiento– se satisfacen las necesidades y expectativas
que imponen los ámbitos laborales.

89
La expresión “mejores prácticas” de la administración se refiere al acuerdo
general en torno a que la aplicación de los procesos de dirección de proyectos
aumenta las posibilidades de éxito de cada proyecto determinado. Pero esto
no significa que los conocimientos, habilidades y procesos deban aplicarse
siempre de la misma manera en todos los proyectos. Para un proyecto deter-
minado, el director del proyecto, en colaboración con el equipo, siempre
tiene la responsabilidad de determinar cuáles son los procesos apropiados, así
como el grado de rigor adecuado para cada proceso.1
Y es que la administración en sí es una herramienta esencial que permite
lograr los objetivos estratégicos planteados. Pero, actualmente, no basta con
saber administrar proyectos, hay que determinar el estado de la organización
en que se desarrollan, aplicando para ello el project management.
Ahora bien, si los arquitectos en funciones deben tener interés en la vi-
sión, la ética, la diversidad cultural y los cambios en el modo de trabajo, es
porque en el mundo actual todos los profesionistas tienen motivos para mati-
zar su experiencia, en cuanto a la aplicación de los modelos administrativos,
con un enfoque ético, sensible ante la diversidad cultural y comprensivo de
la idea misma del trabajo y del lugar desde la práctica.
En efecto, las organizaciones profesionales tienen mucha importancia y
repercusiones en nuestro nivel de vida y nuestro futuro. Sean formales o
informales, todas planean y se fijan metas. El grado en que las organizacio-
nes de arquitectura puedan alcanzar sus metas dependerá de la eficacia y la
eficiencia de quien esté a cargo. Cumplir satisfactoriamente este requisito
propicia ventajas a las organizaciones de diseño, asesoría o construcción, y
subraya la trascendencia de un hecho crucial: en el campo de lo arquitectó-
nico, la visión emprendedora implica necesariamente poner en marcha un
proceso administrativo.
Por tanto, es necesario el punto de vista comparativo entre el clásico ciclo
del proceso administrativo y las etapas o fases en que se desarrolla un proyecto
arquitectónico de principio a fin. Las constantes analogías inducen a proponer
un modelo de análisis y estudio, no necesariamente con pretensiones teóricas,
pero sí de uso práctico, sintetizado a partir del tipo de análisis en cuestión.2
Además, este enfoque muestra la conveniencia de contribuir al establecimien-
to de un nuevo perfil de arquitecto atendiendo a casos profesionales reales,
así como proponer soluciones a las dificultades que plantea una profesión
tan compleja reflexionando sobre la necesidad de vincular los campos de
ejercicio profesional y de buscar siempre simplificar lo que, a primera vista,
parece complicado.

1 Project Management Institute, (pmi) Guía Procesos productivos y proyecto arquitectónico


de los fundamentos para la dirección de
proyectos (Guía del pmbok), 4ª edición,
Pennsylvania, pmi, 2008. Secc. II, cap. 3. La actividad fundamental de un arquitecto es el diseño de un proyecto arqui-
2 Jorge Quijano Valdez, Arquitectura y
Administración. Temas de frontera, México,
tectónico. El diseño de proyecto es la intención de realizar un plan previa-
Trillas, 2012, pp. 14-15. mente ideado que se representa en un conjunto de planos y documentos
para construir un edificio de cualquier género. Se entiende que la fuerza y

90 Colección Textos FA o Tecnología


regla de este diseño consiste en la correcta expresión gráfica y en un firme
preordenamiento de conceptos formales. La materialización de esta activi-
dad implica un proceso productivo. En el ámbito de la administración de
proyectos, el término “proceso” se ha relacionado con la planeación, organi-
zación, dirección y control, fases que han sido integradas a la administración
de los procesos productivos desde mediados del siglo xix. Es un hecho, en
todo caso, que los arquitectos al proyectar o construir están constantemente
inmersos en procesos de producción de diseño y en su realización, y el pro-
ceso constituye el núcleo de la relación con la administración.
Como los arquitectos siempre estamos inmersos en proyectos de inversión,
entremos en contexto definiendo genéricamente al proyecto de inversión como
una guía para tomar decisiones acerca de la creación de una futura inversión,
ya sea para beneficio social o económico, mostrando el diseño técnico-orga-
nizacional, económico y financiero del mismo. En particular, lo entenderemos
como el documento que describe, fundamenta y detalla al proyecto,y si éste se
muestra viable, se convierte en el plan de realización del mismo.
Desde el punto de vista metodológico, podemos abordar los procesos pro-
ductivos con base en las mejores prácticas globales, según la concepción de
proyecto que proponen organismos internacionales a través de sus publica-
ciones, por ejemplo, la norma iso 21500:2012 Guidance on Project Mana-
gement; el libro Project Management Body of Knowledge,3 tradicionalmente
citado por el acrónimo pmbok y publicado por el Project Management Insti-
tute (pmi); el apm Body of Knowledge, publicado por la Association for Project
Management del Reino Unido; el prince,4 también británico (publicado por
la Office of Government Commerce, ogc); el Microsoft Project and Portfolio
Management5 (producto de Office) y el p3m36 (producto del Cabinet Office,
a nombre de Su Majestad Británica, a quien corresponde la propiedad inte-
lectual), entre otros.
Los estándares iso y el pmbok son los que mayor reconocimiento y presen-
cia tienen en América Latina y México. iso son las siglas de la International
Organization for Standardization (Organización Internacional de Estánda-
res), familiar en todos los ámbitos por sus normas de calidad de la serie
9000. En 2012 publicó su norma 21500 como guía para la administración 3 En 2012 apareció la quinta edición de
este libro.
de proyectos.7 Aunque no es tan famosa como el pmbok del Project Mana- 4 El nombre es acrónimo de Projects in
Controlled Environments (Proyectos en
gement Institute (pmi) como estándar definido para este campo, proporciona Ambientes Controlados). Para mayor
información importante para la gestión de proyectos y puede ser utilizado información se puede ver el sitio web http://
www.prince2.com/what-is-prince2.asp
por cualquier tipo de organización, incluidas las organizaciones públicas, 5 Para mayor información ver el sitio web
privadas y comunitarias, y para cualquier tipo de proyecto, independiente- http://office.microsoft.com/en-us/project/
6 El nombre p3m3 es una abreviatura
mente de su complejidad, tamaño o duración. Ofrece, además, un alto nivel para Portfolio, Programme, and Project
Management Maturity Model (Portafolio,
de descripción de los conceptos y procesos que se consideran para formar Programa y Modelo de Madurez de
buenas prácticas en la gestión de proyectos. Lo crucial, para nosotros, es que Administración de Proyectos), esto es, tres
palabras que inician con P y tres que inician
tiende a prestar un servicio a proyectos de todo tipo, desde los referentes a la con M. La versión más reciente se publicó
en 2010. Véase el sitio web http://www.
construcción hasta los de las tic, pasando por los industriales o internos de p3m3-officialsite.com/
múltiples organizaciones. 7 Véase el sitio web http://www.iso.org/iso/

Administración de los procesos productivos en arquitectura 91


El iso 21500 se estructura en alcances, términos y definiciones, conceptos y
procesos en la gestión de proyectos. Entre sus beneficios destacan el fomento
de la transferencia de conocimientos entre proyectos y organizaciones para
mejorar la ejecución de los proyectos, la eficiencia de los procesos de licita-
ción mediante el uso de terminología coherente de gestión de proyectos, y
el impulso a la flexibilidad de los empleados de administración de proyectos
para trabajar en algunos internacionales. Carece, sin embargo, de una guía
detallada para administrar programas y portafolios, los cuales son frecuentes
en el contexto de creación y desarrollo de un proyecto.
Para encontrar esto, conviene consultar el pmbok, donde se describe for-
malmente normas establecidas, métodos, procesos y las “mejores prácticas”
que se pueden aplicar a proyectos de las más diversas clases. Es un libro que
proporciona un vocabulario fijo para discutir, escribir y utilizar los conceptos
de la administración de proyectos. Al constituir una guía de referencia y no
una metodología canónica –es muy importante recordar esto– facilita exten-
siones por áreas tanto para aplicaciones, como para el gobierno (Govern-
ment Extension to the pmbok) y para la construcción (Construction Extension
to the pmbok).8
De hecho, el análisis de las prácticas y de la administración de proyectos de
construcción fue una de las causas fundamentales para la edición original del
pmbok en 1987. Desde entonces, un reconocimiento creciente del valor de la
administración de proyectos a todas las áreas de actividad profesional e indus-
trial ha llevado a una ampliación de conceptos y a una inclusión que, debido a
su naturaleza más universal, no cubre –en algunos aspectos– las prácticas ad-
ministrativas que actualmente son comunes en la industria de la construcción
a nivel internacional. Por esta razón, mientras que los cambios pueden no ser
sustanciales, son en todo caso lo bastante diferentes de otras áreas como para
requerir una extensión.9

8 Graciela Bárcenas, “Introducción a Programas, proyectos y tareas


la administración de proyectos en la
arquitectura” (ponencia presentada en
el módulo uno del 1er Diplomado en Autores y personas involucradas en la realización de proyectos consideran
Administración de Proyectos-apa, México,
unam/fa-dec, 2011). El pmi se ocupa en en ocasiones que los términos "programas", "proyectos" y "tareas" son inter-
programas de desarrollo profesional y en
certificaciones para cumplir el estándar cambiables, sin embargo la práctica muestra que conviene definir a cada
pmbok. Asimismo, proporciona un código uno cuidadosamente. Russell Archibald propone estas definiciones básicas:
de conducta individual donde se describen
las responsabilidades y actitudes de •• Programa: una labor a largo plazo que incluye dos o más proyectos que
respeto, rectitud y honestidad que se requieren coordinación atendida puntualmente.
espera observar en los profesionales de
la administración de proyectos, tanto con •• Proyecto: un esfuerzo complejo, usualmente de duración menor a tres
respecto a ellos mismos como con los
demás.
años, hecho de tareas interrelacionadas y ejecutado por varias organi-
9 Project Management Institute. Construction zaciones funcionales, con un objetivo, un calendario y un presupuesto
Extension to A Guide to the Project
Management Body of Knowledge, pmi, bien definidos.
Pennsylvania, 2000, cap. 1. •• Tarea: un esfuerzo de corto plazo (semanas o pocos meses de duración)
10 Russell D. Archibald, Managing High-
Technology Programs and Projects, 3ª realizado por una organización funcional, que puede combinarse con
edición, Hoboken, New Jersey, Wiley & otras tareas para formar un proyecto. Las tareas se componen usualmen-
Sons, 2003, pp. 25-26.
te de actividades interrelacionadas de muy corta duración.10

92 Colección Textos FA o Tecnología


Las consideraciones de la duración y el calendario en esta definición
de proyecto se vinculan con la definición general del pmbok: “un esfuerzo
temporal que se lleva a cabo para crear un producto, servicio o resultado
único”.11 Al calificarlo de temporal, se refiere a que tiene un principio y un
fin definidos, y es único por cuanto el producto o servicio se distingue de
cualquier otro similar por determinadas características.
Considerados con independencia de los impactos económicos, sociales y
ambientales que pueden generar, los proyectos comparten una característica
general: la iteración. En el pmbok se explica su interrelación con otros ele-
mentos centrales del proyecto, entendido como una totalidad, así:

Todo proyecto crea un producto, servicio o resultado único. Aunque puede


haber elementos repetitivos en algunos entregables del proyecto, esta repetición
no altera la unicidad fundamental del trabajo del proyecto. Por ejemplo, los
edificios de oficinas son construidos con materiales idénticos o similares, o por
el mismo equipo, pero cada ubicación es única: con un diseño diferente, en
circunstancias diferentes, por contratistas diferentes, etcétera.
Un esfuerzo de trabajo permanente es por lo general un proceso repetiti-
vo, puesto que sigue los procedimientos existentes de una organización. En
contraposición, debido a la naturaleza única de los proyectos, puede existir
incertidumbre respecto de los productos, servicios o resultados que el proyecto
genera. Las tareas del proyecto pueden ser nuevas para el equipo del proyecto,
lo que hace necesario planificar con mayor dedicación que si se tratara de un
trabajo de rutina. Además, los proyectos se llevan a cabo en todos los niveles
de una organización. Un proyecto puede involucrar a una sola persona, una
sola unidad o múltiples unidades dentro de la organización.12

Esto no implica restricciones en la magnitud o duración del esfuerzo, tampo-


co en cuanto a la clase de producto o servicio. La unicidad de los proyectos
se explica por las circunstancias específicas en las que se llevan a cabo,
tomando en cuenta la tecnología disponible. Se debe entender que el pro-
pósito especial de un proyecto es lograr objetivos y generar un producto o
servicio ad hoc para un negocio específico.13
Existe también una forma estratégica de pensar en los proyectos, relacio-
nada con la práctica y la terminología de los negocios: una iniciativa organi-
zacional para mejorar, incrementar la competitividad, eliminar costos inútiles
o posicionarse en el mercado; entonces la disciplina total de la gerencia de
proyectos (véase abajo) cobra su mayor importancia, al relacionarse con el
aspecto económico de las organizaciones.14 También ocurre así una vez que
11 pmi, Guía de los fundamentos para la
inicia la ejecución de un proyecto, pues entonces comienzan a surgir varios dirección de proyectos (Guía del pmbok) 4ª
problemas complejos de planeación, coordinación y control. edición, Pennsylvania, pmi, 2008.
12 Ibid.
13 José D. Esterkin, La administración de
proyectos en un ámbito competitivo, Buenos
Aires, Thomson Learning, 2007, p. 18.
14 Ibid., p. 19.

Administración de los procesos productivos en arquitectura 93


Características de los proyectos

La cantidad y el ordenamiento de estas características varían con los investi-


gadores que escriben sobre ellas. Las más destacadas son:

•• Se trata de esfuerzos complejos únicos que inician y terminan


•• Representan un proceso de crear resultados específicos
•• Tienen un ciclo de vida
•• Cambian su carácter fase a fase conforme avanzan
•• Muchos proyectos no sobreviven el concepto o la definición de las fases
•• El costo de acelerar un proyecto crece exponencialmente en proporción
a la cercanía del momento de completar el trabajo15

Es conveniente que los proyectos se sujeten a una cuádruple restricción: 1) satis-


facer los requerimientos del propietario, indicados por él mismo en los objetivos
del proyecto; 2) realizarse dentro de un marco de tiempo definido, conforme a
un programa de ejecución; 3) que su costo total no rebase los límites marcados
en el presupuesto del proyecto;16 y 4) que sus alcances sean específicos, de
acuerdo a cada tipo de proyecto.
En los objetivos se describe la situación presente y la que se espera como
resultado final, de preferencia en términos cuantitativos y cualitativos. Están
expresados en los alcances funcionales o de desempeño, que incluyen las ta-
reas, acciones o actividades que el producto del proyecto y sus partes deberán
realizar, así como los niveles de desempeño que deberán alcanzarse en la
ejecución condicionada de aquellas funciones y las restricciones impuestas
por el propietario o por otros interesados en el entorno del proyecto.
Los alcances son documentos que contienen los requerimientos que han
sido acordados con algún grupo en particular. Para generarlos, es importante
consultar a las partes interesadas respecto a su factibilidad y su adecuación
a los requerimientos. Durante este proceso conviene identificar los requeri-
mientos técnicos que podrían ser negociables. La formulación de los alcances
corresponde al propietario, quien a veces se identifica como el cliente del
proyecto y en ocasiones debe distinguirse claramente del usuario o usuarios
del producto final. Éstos pueden causar problemas cuando es difícil definir
15 Russel D. Archibald, op. cit., pp. 26-31. con precisión las necesidades y requerimientos del propietario, caso en que
16 Carlos Uriegas Torres, El sistema de el producto del proyecto no es tangible o no tiene precedente.17
gerencia de proyectos, México, El autor,
2003, p. 6. Los documentos de alcances funcionales –en el caso de los arquitectos
17 Ibid., pp. 6-7. Además, existen dificultades
derivadas de las variadas interpretaciones un ejemplo es el programa general o el arquitectónico– y de especificacio-
que cada parte puede dar a los términos nes técnicas determinan el producto entregable (incluyendo servicios) y las
y expresiones contenidos en los alcances,
así como a las modificaciones más o menos tareas por realizar; constituyen ambos, en su caso, el alcance del proyecto.18
inesperadas en las necesidades reales
del propietario, según se completan los
Entenderemos por entregable cualquier producto, resultado o capacidad de
resultados parciales y surgen alternativas prestar un servicio único y verificable que debe producirse para terminar un
derivadas de avances tecnológicos y
cambios en el ambiente del proyecto. proceso, fase o proyecto; a menudo se utiliza más concretamente en relación
18 Ibid., p. 8. con un entregable externo, el cual está sujeto a la aprobación del patrocina-
dor del proyecto o del cliente.

94 Colección Textos FA o Tecnología


Ahora bien, a partir de los requerimientos funcionales y técnicos definidos
inicialmente para el proyecto y de las especificaciones correspondientes se
derivan requerimientos, alcances y entregables de menor nivel a medida que
avanza el desarrollo del proyecto.
La programación de tiempos de un proyecto es una labor continua y pro-
gresiva, basada en una estimación detallada de las actividades más próximas
y en una más global y menos precisa de los trabajos por realizar posterior-
mente. La base para la estimación de tiempos de un proyecto es el conjunto
de experiencias de proyectos análogos realizados previamente.19
Ahora bien, en última instancia es posible caracterizar a un proyecto, de
acuerdo con la administración de proyectos, como un género de actividad
que atomiza y engloba las funciones por sus etapas. En este sentido amplio
e integral la administración logra un mejor control de resultados en cuanto a
tiempo, eficiencia, calidad y costo.

La gerencia o coordinación de proyectos

Al considerar lo expresado, así como las actividades del arquitecto en su ejer-


cicio profesional (diseñar, dirigir, construir y coordinar), es notable que éste
no se dé cuenta de que todo esto, por analogía, equivale a lo que se conoce
como gerencia de proyectos, en particular al nivel intermedio de la misma,
llamada gerencia funcional. Ahora, si otra de las labores fue la promoción del
negocio, la gerencia se llamará estratégica. Estas actividades permiten tener
mejores oportunidades para regenerar la práctica actual de la arquitectura.
Así, la responsabilidad de un gerente o coordinador, al abordar un porta-
folio, programa o proyecto de servicios, es crear un producto final. Como sus
funciones son diversas, se le reclama atender las etapas fundamentales de todo
proyecto: previsión, planeación, organización, ejecución, dirección y control.
Esta capacidad y habilidad de desarrollo podrá mostrarse en cualquier nivel
de la gerencia de proyectos.
En esta situación, hacen falta arquitectos preparados que, al frente de
puestos directivos, mandos medios y de coordinación, tomen decisiones
fundamentadas en análisis prospectivos racionales que indiquen hacia dón-
de dirigir la realización de cualquier ejercicio de ejecución o servicio de
asesoría basado en la administración estratégica y su aplicación en los pro-
cesos productivos, con el fin de elevar la eficacia y eficiencia en la esfera
de la producción, gestión y desarrollo, para cumplir el objetivo planteado.
Este modo de conducirse está orientado hacia la coordinación técnico-admi-
nistrativa; requiere el desempeño de los profesionales como coordinadores
de proyectos multidisciplinarios para emprendedores, organismos estatales y
municipales, organizaciones y centros de asesoría; o ejecutivos en empresas
privadas involucradas en la administración del tiempo, el costo y la calidad
en los procesos productivos.
Todo ello debe tender a la integración coordinada de la promoción, la 19 Ibid., p. 9.

gestión y el diseño ejecutivo, así como a la construcción, fabricación y puesta

Administración de los procesos productivos en arquitectura 95


en marcha del encargo por desarrollar, determinando objetivos, programando,
dirigiendo y controlando el proceso; entregando y poniendo en marcha el
producto en tiempo, costo, calidad y alcances previstos. En el fondo, la meta
es alcanzar la máxima eficiencia con un menor impacto medioambiental y
una mayor rentabilidad de los recursos con los que se cuenta para la ejecución
del objeto producido, y satisfacer de tal modo al cliente o usuario.
Ahora, si la gerencia o coordinación de proyectos es la aplicación de cono-
cimientos, habilidades, herramientas y técnicas a las actividades del proyecto
para cumplir con los requisitos del mismo, la aplicación de conocimientos
requiere de la dirección eficaz de los procesos apropiados. Si un proceso es
un conjunto de acciones y actividades interrelacionadas para obtener un pro-
ducto, resultado o servicio predefinido, entonces cada proceso se caracteriza
por sus entradas, por las herramientas y técnicas que puedan aplicarse y por
las salidas que se obtienen. El gerente del proyecto debe considerar los activos
de los procesos de la organización y los factores ambientales, y tenerlos en
cuenta para cada proceso, incluso si no están enumerados explícitamente
como entradas en sus especificaciones. Los activos de los procesos de la
organización proporcionan pautas y criterios para lograr su adaptación a las
necesidades específicas del proyecto. Por otra parte, los factores ambientales
pueden restringir las opciones de la dirección de proyectos.20
A partir de lo anterior, para que un equipo profesional de trabajo impulse
y garantice el éxito de su proyecto debe realizar cuatro acciones básicas:

•• Seleccionar los procesos requeridos para alcanzar los objetivos


•• Utilizar un enfoque definido que pueda adoptarse para cumplir con los
requisitos
•• Cumplir con los requisitos a fin de satisfacer las necesidades y expecta-
tivas de los interesados
•• Equilibrar las demandas contrapuestas relativas al alcance, tiempo, cos-
to, calidad, recursos y riesgo para producir el producto, servicio o re-
sultado especificado

Los procesos del proyecto son ejecutados por el equipo. Generalmente se


enmarcan en la categoría de procesos de dirección de proyectos, los cuales
aseguran el avance eficaz del proyecto durante toda su existencia –al incluir
las herramientas y técnicas involucradas en la aplicación de las habilidades y
capacidades que se describen en las áreas de conocimiento–21; o de procesos
orientados al producto –que especifican y crean el producto del proyecto.
Estos procesos normalmente son definidos por el ciclo de vida del proyecto y
varían según el área de aplicación. Los procesos de la dirección y los procesos
orientados al producto interactúan a lo largo de la vida de éste. El alcance no
20 Véase, por ejemplo, pmi, pmbok, op. cit.,
caps. 1 y 2 y cap. 3, secc. 3. puede definirse si se carece de una comprensión básica sobre cómo generar
21 Ibid., caps. 4-12. el producto especificado, por ejemplo, al determinar la complejidad global
de una casa que se plantea construir es obligatorio tener en cuenta diversas
técnicas y herramientas de construcción.

96 Colección Textos FA o Tecnología


Como vemos, la gerencia de proyectos es también una tarea integradora
que requiere que cada proceso del producto y del proyecto esté alineado y
conectado de manera adecuada con los demás procesos, a fin de facilitar la
coordinación.22 Normalmente, las acciones tomadas durante un proceso lo
afectan tanto como a otros procesos relacionados. Una dirección de proyec-
tos exitosa incluye dirigir activamente estas interacciones, a fin de cumplir
con los requisitos del patrocinador, el cliente y los demás interesados; de esta
forma es posible generar información para mejorar la dirección de futuros
proyectos.

Sistematización de los proyectos

El concepto de sistema está íntimamente ligado al de proceso, ya que los


sistemas desarrollan procesos de transformación a fin de generar productos
que satisfagan sus objetivos. En las mejores prácticas la orientación se dirige
a la gerencia de proyectos, pero ésta depende de los procesos productivos,
pues la forma en que se administra está en función de lo que se administra.23
Las principales características de los sistemas atienden a la complejidad;
la organización; el realizar una función de proceso; tener una finalidad; ser
limitados (a fin de ser susceptibles de análisis); y participar de la retroalimen-
tación y el control.
El enfoque de sistemas amplía la visión del proyecto considerando la rela-
ción de éste con su entorno y generando cuestionamientos o preguntas que de
otro modo no surgirían; además, promueve la innovación y el proceso creativo.
Aplicado a los proyectos, enfatiza su carácter integrador, la integración externa
del proyecto con su ambiente y la integración interna de sus componentes
para un objetivo común. Es básicamente una metodología de diseño; como
tal, cuestiona la naturaleza misma del sistema y su papel en el contexto del
sistema global. Es necesario considerar a cada sistema en su relación con los
demás sistemas del conjunto. De este modo se procede de lo particular a lo
general y se determina la idea del diseño de un sistema óptimo por un proceso
de inducción y síntesis. Las principales características de esta metodología son:

•• El problema se define en relación con los sistemas de orden superior, a


los cuales pertenece un determinado sistema tratado. Un proyecto no
puede definirse más que en el contexto de la organización patrocinado-
ra y en el de sistemas aún más amplios, como la industria y el gobierno.
•• Los objetivos del sistema se determinan en el contexto más amplio del
“sistema total”. Éste abarca todos los sistemas/proyectos que tienen una 22 El pmbok, por ejemplo, describe la
naturaleza de los procesos de dirección de
influencia apreciable sobre el sistema/proyecto en estudio. proyectos en términos de la integración
•• Los diseños existentes se evalúan en función de los costos de oportu- entre los procesos, sus interacciones y
sus propósitos conjuntos, en donde los
nidad y de la magnitud de las divergencias entre aquéllos y el diseño procesos de gerencia se agrupan en cinco
óptimo. El objeto de un proyecto es realizar cambios estructurales, a fin categorías conocidas como Grupos de
Procesos de la Dirección de Proyectos.
de aprovechar las oportunidades que plantea el “sistema total”. 23 Carlos Uriegas Torres, op. cit., p. 60.

Administración de los procesos productivos en arquitectura 97


•• El diseño óptimo no puede encontrarse, por lo general, en forma in-
cremental a partir de las formas actuales; se requiere la planeación,
evaluación e implementación de alternativas innovadoras y creativas
(proyectos) en el marco del sistema total.

El enfoque de sistemas aplicado a los proyectos enfatiza su carácter integra-


dor: integración externa del proyecto con su ambiente; integración interna de
sus componentes para un objetivo común.24
Las principales características de los sistemas son la complejidad, la orga-
nización, el realizar una función de proceso, tener una finalidad, ser limitado
(a fin de ser susceptible de análisis) y participar de retroalimentación y con-
trol. Las dos herramientas que se utilizan en la planeación de la integración
son el sistema de control de cambios y la enseñanza de las lecciones que se
han vivido.25
Sin embargo, los cambios son inevitables durante la realización de un pro-
yecto. De hecho, debe esperarse que ocurran, mientras el equipo sepa cómo
responder y manejarlos. Esto se puede hacer con un sistema formal de control
de cambios, a fin de administrarlos y añadir valor al proyecto, facilitar la au-
torización y sus efectos en tiempo, costo, calidad y alcance, y determinar la
actualización de todos los documentos correspondientes. Para desarrollarlo se
necesita revisar el proyecto anterior y los documentos anexos, y actualizar todo
con oportunidad mientras dure el proyecto.26

Consideraciones finales

En tanto la temática relacionada con los proyectos de inversión y los procesos


productivos en la arquitectura, dirigidos a organizaciones sociales, vincula
los campos del conocimiento con el ejercicio profesional cotidiano, promo-
viendo su articulación con otros campos en todas las áreas académicas, su
inclusión en el proceso de enseñanza-aprendizaje es valiosa para impulsar la
formación del arquitecto desde la perspectiva interdisciplinaria, en el marco
del desarrollo de sus habilidades tecnológicas y de expresión oral, escrita y
gráfica. Para contribuir a esto, a finales de 2012 publiqué en un libro electró-
nico (accesible a través de Internet y en dispositivos móviles) titulado Análisis
de los procesos y administración de los productos arquitectónicos27, resulta-
dos de una investigación (enmarcada en el proyecto papiit in404511) cuya
reflexión de fondo es la aplicación conjunta y coordinada de los saberes
de arquitectos y administradores profesionales a favor del desarrollo social,
24 Ibid., pp. 60-61. subrayando en lo teórico las relaciones disciplinarias de repercusión tecno-
25 Yamal Chamoun, Administración profesional lógica, económica, social y financiera más importantes que establecen entre
de proyectos. La guía, México, McGraw-Hill
Interamericana, 2002, p. 147. sí la arquitectura, la administración y la mayoría de las ciencias sociales o
26 Ibid., p. 149.
27 Jorge Quijano Valdez, Análisis de procesos humanas, comenzando por la ética, la psicología, la economía y la historia.
y administración de los productos
arquitectónicos, electrónico, 3 tomos,
México, unam-fa/dgapa, 2012.

98 Colección Textos FA o Tecnología


La división y organización de los treinta temas se basó en las correspon-
dientes a las tres asignaturas de Administración que se imparten en la Facul-
tad de Arquitectura de nuestra universidad, considerando las propuestas e
ideas que, junto con un grupo de profesores del área Tecnología, he realiza-
do dentro de las propuestas de modificaciones al plan de estudios vigente.

Referencias

Archibald, Russell D. Managing High-Technology Programs and Projects, 3º ed-


ción. Hoboken, Nueva Jersey: Wiley & Sons, 2003.
Bárcenas, Graciela, “Introducción a la administración de proyectos en la arquitec-
tura”. Ponencia presentada en el módulo uno del 1er Diplomado en Adminis-
tración de Proyectos (apa), México, unam/fa-dec, 2011.
Chamoun, Yamal. Administración profesional de proyectos. La guía. México: Mc-
Graw-Hill Interamericana, 2002.
Esterkin, José D. La administración de proyectos en un ámbito competitivo. Bue-
nos Aires: Thomson Learning, 2007.
International Organization for Standardization. http://www.iso.org/iso/ [Consulta-
da el 17 de junio de 2013].
Microsoft Office. “Microsoft Project and Portfolio Management”. http://office.mi-
crosoft.com/en-us/project/ [Consultada el 15 de junio de 2013].
p3m3. “Portfolio, Programme, and Project Management Maturity Model”. http://
www.p3m3-officialsite.com/ [Consultada el 17 de junio de 2013].
Project Management Institute, (pmi). Guía de los fundamentos para la dirección de
proyectos (Guía del pmbok), 4º edición. Pennsylvania: pmi, 2008.
. Construction Extension to A Guide to the Project Manage-
ment Body of Knowledge. Pennsylvania: pmi, 2000.
Projects in Controlled Environments (prince). http://www.prince2.com/what-is-
prince2.asp [Consultada el 15 de junio de 2013].
Quijano Valdez, Jorge. Arquitectura y administración. Temas de frontera. México:
Trillas, 2012.
. Análisis de procesos y administración de los productos ar-
quitectónicos, [electrónico], 3 tomos. México: unam/fa-dgapa, 2012.
Uriegas Torres, Carlos. El sistema de gerencia de proyectos. México: El autor, 2003.

Administración de los procesos productivos en arquitectura 99


100 Colección Textos FA o Tecnología
La importancia de conocer algunos conceptos
subjetivos en las estructuras arquitectónicas

Ramón Abúd Ramírez

Introducción

El objetivo principal de este artículo es dar a conocer algunos de los conceptos


básicos que tienen influencia en la estructuración de una edificación. El cono-
cerlos y manejarlos proporciona un buen comportamiento estructural, desde la
composición arquitectónica hasta la construcción, logrando así que al diseñar,
el arquitecto tenga los conocimientos estructurales adecuados para una correcta
conceptualización del tamaño y la forma de la estructura arquitectónica.
El arquitecto debe conceptualizar la estructura y su envolvente de manera
holística, es decir, como un todo, ya que ambas mantienen una importante
relación; por ello se debe considerar que en cada una de las plantas estruc-
turales de cualquier edificación existen: el centroide de masas (punto donde
coinciden todas las fuerzas resistentes del edificio, como losas, columnas,
personas, etc.) y el centroide de rigidez (punto centroide, donde coinciden
las rigideces de los elementos resistentes). Dichos centroides deberán coin-
cidir en un mismo punto lo más posible para que los edificios tengan un
comportamiento adecuado ante la eventualidad de un sismo.
Para lograr que los centroides estén lo más cercanos entre sí, se deben
considerar varios aspectos que ya están normados en el Reglamento de Cons-
trucción del Distrito Federal, en las Normas Técnicas complementarias para
diseño por sismo (gdf, 2004).

Condiciones de regularidad
Para que una estructura pueda considerarse regular debe satisfacer los si-
guientes requisitos:

1. Su planta es sensiblemente simétrica con respecto a dos ejes ortogona-


les por lo que toca a masas, así como a muros y otros elementos resis-
tentes. Éstos son, además, sensiblemente paralelos a los ejes ortogonales
principales del edificio.

101
2. La relación de su altura a la dimensión menor de diez por ciento de la dimensión en planta de
su base no pasa de 2.5. ese entrepiso medida paralelamente a la ex-
3. La relación de largo a ancho de la base no centricidad mencionada.
excede de 2.5.
4. En planta no tiene entrantes ni salientes cuya Estas condiciones ayudan a diseñar un elemento
dimensión exceda el 20 por ciento de la di- volumétrico para que sufra las menores deformaciones
mensión de la planta, medida paralelamente posibles; sin embargo, el arquitecto, además de seguir es-
a la dirección que se considera del entrante o tos lineamientos, debe conceptualizar formas de tal ma-
saliente. nera que contribuyan y mejoren el comportamiento de
5. En cada nivel tiene un sistema de techo o las edificaciones sin menoscabo de su estética.
piso rígido y resistente. El arte se nutre de las limitaciones y cualquier nor-
6. No tiene aberturas en sus sistemas de techo o mativa actuará en beneficio del buen proyectista de una
piso cuya dimensión exceda el 20 por cien- estructura, magnificando su ingenio, contrario a lo que
to de la dimensión en planta, medida para- comunmente se piensa acerca de las imposiciones que
lelamente a la abertura; las áreas huecas no nos imponene las distintas normativas.
ocasionan asimetrías significativas ni difieren
en posición de un piso a otro; y el área to- Centroides
tal de aberturas no excede en ningún nivel
el 20 por ciento del área de la planta. Centroide de cargas (gravedad o masa)
7. El peso de cada nivel, incluyendo la carga viva Este centroide es un punto donde teóricamente coinciden
que debe considerarse para diseño sísmico, no todas las fuerzas de gravedad de la edificación; es decir,
es mayor que 110 por ciento del correspon- es el peso propio de todos los elementos estructurales,
diente al piso inmediato inferior ni, excepción producto de la realización de una bajada de cargas.
hecha del último nivel de la construcción, me- En un ejemplo de un edificio con una mala estructura-
nor que 70 por ciento de dicho peso. ción se realizó una bajada de cargas, la cual se muestra
8. Ningún piso tiene un área delimitada por los en la siguiente tabla. Se ejemplifican los pesos en tone-
paños exteriores de sus elementos resistentes ladas (ton) producidos por fuerzas axiales propias de la
verticales mayor que 110 por ciento de la del estructura en cada uno de los ejes.
piso inmediato inferior, ni menor que 70 por

ciento de ésta. Se exime de este último re-  
eje distancia eje distancia eje distancia eje

quisito únicamente al último piso de la cons-   1 5 2 5 3 5 4


trucción. Además, el área de ningún entre- eje A 15.02   27.82   25.62   12.82
piso excede en más de 50 por ciento a la distancia 5              
menor de los pisos inferiores.      
eje B 27.82 53.50 51.30 25.62
9. Todas las columnas estan restringidas en
todos los pisos en dos direcciones sensible- distancia 5              

mente ortogonales por diafragmas horizonta- eje C 12.82   25.62   25.62   12.82

les y por trabes o losas planas.


10. Ni la rigidez ni la resistencia al corte de El centroide de cargas se logra haciendo un momen-
ningún entrepiso difieren en más de  50  por to estático, es decir, multiplicamos el peso del eje por
ciento de la del entrepiso inmediatamente in- la distancia a cualquier punto de la planta tomando uno
ferior. El último entrepiso queda excluido de por cada sentido ortogonal; posteriormente hacemos una
este requisito. suma de pesos y momentos estáticos y con estos dos da-
11. En ningún entrepiso la excentricidad torsio- tos despejamos la distancia promedio en cada sentido
nal calculada estáticamente, es, excede del ortogonal. Esto localiza finalmente el centro de gravedad.

102 Colección Textos FA o Tecnología


Tomando en cuenta el ejemplo mencionado, se obtienen pesos totales por
eje y son multiplicados por una distancia referida a un punto. En este caso se
tomó el punto en los ejes C-1.

Eje Peso (Wi) Distancia (d) Wi x d Eje Wi d Wi x d


A 81.28 10 812.8 1 55.66 0 0
B 158.24 5 791.2 2 106.94 5 534.7
C 76.88 0 0 3 102.54 10 1025.4

 ∑ 316.4   1604 4 51.26 15 768.9

∑ 316.4 2329

Y= 1604 = 5.069532238 X 2329 = 7.360935525


316.4 316.4

Centroide de rigidez

01. Esta imagen nos muestra la


localización de los centroides, tanto
de gravedad como de rigidez. Se
ejemplificó con una estructuración
errónea para que dichos centroides
quedaran separados y se lograra el
objetivo de conocer los efectos de
torsión y volteo que producen cuando
se encuentran de esta manera

Centroide de carga

Centroide de rigidez
La rigidez de los elementos estructurales y su posición en planta son los fac-
tores que determinan la localización de este centroide. Según la sección, la
altura y el área de estos elementos es como se calcula la rigidez de cada uno
de los mismos; ésta se multiplica por una distancia a un punto de referencia,
dando como resultado las distancias que componen el centroide referido.

La importancia de conocer alguos conceptos subjetivos 103


eje distancia eje distancia eje distancia eje

1 5 2 5 3 5 4

eje A 30 x 30 40 x 40 50 x 50 50 x 50

distancia 5

eje B 30 x 30 40 x 40 40 x 40 50 x 50

distancia 5

eje C 30 x 30 40 x 40 40 x 40 50 x 50

Para conocer la rigidez de los elementos es necesario contar con la sec-


ción de dicho elemento y con la longitud y calidad del material con el que
se hará. Sabiendo esto, en el ejemplo mencionado se han considerado co-
lumnas con diferente sección para lograr diferentes rigideces en la totalidad
de la planta arquitectónica.

Sección de columnas Rigidez individual proporcional


30 x 30 1
40 x 40 3.16
50 x 50 7.71

eje distancia eje distancia eje distancia eje

1 5 2 5 3 5 4

eje A 1 3.16 7.71 7.71

distancia 5

eje B 1 3.16 3.16 7.71

distancia 5

eje C 1 3.16 3.16 7.71

Cuando se ha obtenido la rigidez de cada una de las columnas, se suman


por ejes y se multiplican por una distancia referida a un punto. En este caso
se tomó el punto en los ejes C-1, para finalizar con la división de esta fuerza
por distancia entre la suma total de las rigideces de las columnas en los ejes.
Se obtuvo un punto en cada sentido que, referenciado en planta, nos origi-
nan el centroide de rigidez.

rigidez rigidez
distancia distancia
individual individual

Eje Wi d Wi x d Eje Wi d Wi x d

1 3 0 0 A 19.59 10 195.92

2 9.48 5 47.40 B 15.03 5 75.18

3 14.03 10 140.37 C 15.03 0 0

4 23.14 15 347.22 ∑ 49.66 271.11

∑ 49.66 535

X= 535/49.66 = 10.77 Y= 271.11/ 49.66 = 5.45

104 Colección Textos FA o Tecnología


Efectos de los centroides

Cuando no existe una coincidencia entre ambos centroides, las distancias entre
ellos producen excentricidades. Ocasionan un fenómeno llamado momento de
torsión, entre otros, que puede causar daños en la edificación y sus habitantes.
Cuando estas excentricidades se vuelven 0 (cero), es decir que ambos
centroides coincidan en el mismo punto, significa que no tienen un momen-
to; entonces se dice que se ha logrado un “punto ideal teórico”, el cual es el
punto donde convergen las cargas y las rigideces. Este hecho equivale a tener
un edificio perfecto desde el punto de vista estructural.

Momento de torsión (planta)


El momento de torsión es un giro en planta producido por una fuerza lateral
comúnmente manejada como sismo. Para que se produzca este giro en la fuer-
za intervienen tres factores: magnitud, dirección y ubicación de los centroides.
En estructuras, esta fuerza la conocemos como cortante sísmico y está en
función de la masa. Dado que la masa está en función del peso y el peso está
en función del uso, un buen edificio será el más ligero y a su vez el más rígido. 02. Esta imagen muestra (de manera
exagerada) la deformación de un
Para conocer el momento torsionante es necesario multiplicar el cortante edificio bajo fuerzas laterales y
sísmico por la excentricidad opuesta, es decir x por y o y por x, arrojando el propias del edificio, que provocan una
torsión
momento torsionante que está expresado en toneladas-metro (Tm).

Centroide de rigidez

03. Esta imagen nos muestra las


excentricidades producidas por la
separación de dichos puntos, lo que
producirá un momento de torsión. Para
este efecto se ha tomado la planta
arquitectónica para ver dichos efectos

Centroide de carga

LA IMPORtANcIA dE cONOcER ALGUOS cONcEPtOS SUBJEtIVOS 105


Momento de volteo (alzado)
El momento de volteo consiste en un giro, viendo al edificio en alzado, pro-
ducido por una fuerza lateral comúnmente manejada como sismo. Este giro
(con respecto al piso) se produce por medio de tres factores: magnitud, direc-
ción y ubicación de la resultante en alzado.
En el cálculo de estructuras esta fuerza la conocemos como cortante sís-
mico, que va en función de la masa. Dado que la masa está en función del
peso y el peso está en función del uso, un buen edificio será el más ligero y
a su vez el más rígido.
Para obtener el momento de volteo es necesario multiplicar el cortante
sísmico por la altura de la resultante sísmica. El momento de volteo se estu-
dia comúnmente por cada eje constructivo para conocer sus efectos en un
sentido y en otro.

04. Esta imagen muestra la deformación


(de forma exagerada) de un edificio ante
fuerzas laterales y propias, las cuales
provocan un volteo

05. Esta imagen nos muestra las fuerzas


cortantes que afectan en cada nivel a una
La importancia de la configuración
edificación, en este caso, un edificio de
tres niveles. Se ha tomado sólo uno de
los ejes en alzado para visualizar la acción La configuración implica dos conceptos importantes que se debe considerar:
de dichos efectos de volteo
el tamaño y la forma. En cuanto al tamaño, es de entenderse que entre más
grande sea el edificio es más pesado, y por lo tanto la masa del mismo es mayor.
La forma también es un concepto de vital importancia; dos edificios con
la misma cantidad de metros cuadrados pueden tener soluciones en formas
totalmente opuestas y generar mayores o menos efectos negativos.
Si tomamos en cuenta siempre que las fuerzas generadas por los sismos
(inerciales) están en función de la masa acelerada, entonces un edificio será
más eficiente si es más ligero.

106 Colección Textos FA ⓞ Tecnología


La intuición del diseñador de estructuras

Se dice que todo diseñador debe tener intuición o criterio, pero en realidad
lo que debe tener es conocimiento. Los diseñadores con conocimiento, al
enfrentar la conceptualización de las estructuras arquitectónicas (estructura-
ción), normalmente “sospechan” que una o algunas partes del proyecto están
débiles o en su caso, sobradas, por lo cual necesitan más o menos elementos
resistentes.
De esta forma, la mal llamada intuición es el cúmulo de experiencias que ha
tenido un profesional en el ramo y que por tal motivo es capaz de sospechar,
sin haber calculado nada, la falta o exceso de rigidez en alguna de las partes
de la edificación propuesta. Es así que el conjunto de experiencias conduce
al diseñador de estructuras a ser un buen estructurador de edificios.
Este oficio significa que sin haber hecho ningún cálculo la gran “intui-
ción” del profesionista lo orientará a elegir la estructura más adecuada cuali-
tativamente para el problema que tenga enfrente. La demostración del poder
de esta actividad será la comprobación cuantitativa, que hoy en día general-
mente se hace con la ayuda de diversos software especializados, cargados en
equipos de cómputo modernos.

Conclusión

Los elementos mencionados a lo largo de este texto no se pueden ver a sim-


ple vista en los edificios, pero conocerlos es altamente deseable, pues de su
ubicación depende el comportamiento general del edificio. Se dice que un
edificio bien estructurado y mal calculado tiene más posibilidades de sobre-
vivir que uno mal estructurado y bien calculado.
Es así que el manejo de algunos conceptos subjetivos en las edificaciones
nos hace mejores diseñadores de estructuras arquitectónicas, pues nos per-
mite establecer un vínculo importante entre lo que podemos tocar y lo que ni
siquiera podemos ver. En otras palabras, es un salto cualitativo de lo subjetivo
a lo objetivo y tangible.

La importancia de conocer alguos conceptos subjetivos 107


108 Colección Textos FA o Tecnología
Los marcos, muros y contravientos
en la estructura

Jaime Ortiz Pulido

El uso y comprensión de elementos estructurales que resistan las fuerzas ge-


ne-radas por sismos –como marcos, muros, contravientos o una combinación
de éstos– en el proyecto y construcción de edificios es de vital importancia
para evitar daños o el colapso de las construcciones, lo cual representa un
riesgo para la integridad física de sus ocupantes. De igual importancia es
tener controladas las deformaciones provocadas por sismos con la finalidad
de evitar incomodidades y pánico en quienes habitan los edificios.
El Reglamento de Construcciones para el Distrito Federal (rcdf) y sus Nor-
mas Técnicas Complementarias (ntc) del 29 de enero de 2004 establecen
algunas pautas cuyo principal objetivo es impedir que las construcciones
sufran tales efectos. Éstas quedan establecidas en el título sexto, De la Se-
guridad de las Construcciones, del capítulo III, De los Criterios de Diseño
Estructural, en los siguientes artículos:

Artículo 147. Toda estructura y cada una de sus partes deben diseñarse
para cumplir con los requisitos básicos siguientes:
I. Tener seguridad adecuada contra la aparición de todo estado límite
de falla posible ante las combinaciones de acciones más desfavora-
bles que puedan presentarse durante su vida esperada y
II. No rebasar ningún estado límite de servicio ante combinaciones
de acciones que corresponden a condiciones normales de operación.
Artículo 148. Se considerará como estado límite de falla cualquier situa-
ción que corresponda al agotamiento de la capacidad de carga de
la estructura o de cualquiera de sus componentes, incluyendo la ci-
mentación; o al hecho de que ocurran daños irreversibles que afecten
significativamente su resistencia ante nuevas aplicaciones de carga.
Las Normas establecerán los estados límite de falla más importantes
para cada material y tipo de estructura.

109
Artículo 149.- Se considerará como estado límite de servicio la ocurrencia
de desplazamientos, agrietamientos, vibraciones o daños que afecten
el correcto funcionamiento de la edificación, pero que no perjudi-
quen su capacidad para soportar cargas. Los valores específicos de
estos estados límite se definen en las Normas.

En un sismo se producen tanto aceleraciones horizontales como vertica-


les; no obstante, el presente documento sólo tratará sobre las primeras.
De acuerdo con la segunda Ley de Newton, si se somete un cuerpo de masa m
a una aceleración a, el cuerpo estará sujeto a una fuerza cuya magnitud es
el producto de la masa por la aceleración, (F=m a). De igual forma, si al en-
trepiso de un edificio con masa m se le somete a una aceleración horizontal
a, producto de un evento sísmico, el entrepiso estará sujeto a una fuerza ho-
rizontal de magnitud F=m a; se considera que dicha fuerza se localiza en el
centro de masas del entrepiso. Estas fuerzas horizontales, producto del sismo,
deben ser resistidas por marcos, muros, contravientos o una combinación de
estos elementos, de tal manera que no rebasen los estados límite de falla ni el
estado límite de servicio que se establecen en el artículo 147 del rcdf.
Los marcos son elementos estructurales tipo barra (una dimensión grande
y dos pequeñas) formados por columnas y trabes, principalmente de concreto
reforzado o acero, e inclusive de madera; los muros son elementos estructu-
rales tipo placa (dos dimensiones grandes y una pequeña), construidos a base
de concreto reforzado, mampostería –constituida por piezas prismáticas, ma-
cizas o huecas– o por piedras naturales unidas por un mortero aglutinante.
Tanto los marcos como los muros se pueden reforzar si se añaden contra-
vientos, los cuales pueden ser de concreto o acero. Para que un contraviento
pueda ser efectivo y proporcione rigidez y resistencia a la estructura de los
edificios debe estar perfectamente ligado al marco o muro que lo contiene.
Para tener un buen comportamiento estructural se debe conseguir que to-
dos los elementos se conecten entre sí con un elemento estructural de capital
importancia, como el diafragma horizontal. Éste se forma con elementos de
concreto colado in situ o prefabricado, o con elementos de acero, como la
losacero, apoyada en vigas secundarias y principales que se sostienen en la
estructura principal. La característica más relevante del diafragma horizontal
es que se pueda considerar con rigidez infinita en su plano; es decir, que ante
la presencia de fuerzas horizontales de sismo no se deforme fuera de su plano,
de manera que el diafragma horizontal no dibuje una superficie alabeada: la
distancia entre dos puntos cualesquiera contenidos en su plano debe conser-
varse constante después de la aplicación de fuerzas en su plano de sismo o
viento. Este rasgo es importante para poder responder a las consideraciones
que se hacen en los métodos de análisis de las estructuras usadas normal-
mente en los diferentes programas de cómputo del mercado del proyecto
estructural.
A continuación se presentan algunos ejemplos de elementos estructurales
de edificios que resisten fuerzas horizontales de sismo o viento.

110 Colección Textos FA o Tecnología


Marco con trabes y columnas Marco con trabes, columnas
y muros de rigidez (concreto
o mampostería)

Marco con trabes, Muros de rigidez Diagrama rígido horizontal


columnas y contravientos (losa de concreto)

Se debe lograr que la construcción, en general compuesta por muros, mar-


cos, contravientos y diafragma horizontal, sea edificada de tal forma que
todo el conjunto logre una estructura final que se pueda considerar monolí-
tica, es decir que toda la estructura responda de esa manera ante las fuerzas
que debe resistir durante su vida útil.
Existen otros tipos de estructuras que también tienen como elementos
principales marcos, muros o una combinación de ambos, pero difieren de
las anteriores en la ausencia del diafragma rígido. Se deben tratar con consi-
deraciones diferentes a las ya mencionadas; entre este tipo se encuentran las
estructuras industriales o bodegas, que generalmente tienen cubiertas en sus
techos formadas con láminas de asbesto o acero, apoyadas en largueros que
normalmente son de acero. Al no ser diafragmas rígidos, se debe tomar en su
cálculo y diseño estructural algunas consideraciones especiales.
El diseño arquitectónico debe concebir la estructura como una parte
indivisible del desarrollo del diseño. Por su parte, el arquitecto, al proyectar
un edificio, debe conocer desde su fase conceptual cuál va a ser el com-
portamiento de la estructura del edificio proyectado para lograr, además del
estado límite de falla y del estado límite de servicio, establecidos en el regla-
mento de construcciones en vigor, la obtención de una construcción con un
sistema constructivo simple, adecuado y a un costo razonable. Esto se logra
al conocer el comportamiento de la estructura y al tomarlo en cuenta eficien-
temente en el diseño arquitectónico.

Resistencia y rigidez

Se considera como marco aquel elemento estructural formado por columnas


(elementos verticales) y por trabes (elementos horizontales). Son aptos para
soportar acciones o cargas tanto verticales como horizontales, producidas
por la acción de la gravedad en el primer caso, o por el viento o un sismo

Los marcos, muros y contravientos en la estructura 111


en el segundo. Su resistencia y rigidez dependen del material con el cual se
construyan y de su sección transversal. Son elementos muy importantes en la
estructura de los edificios y, junto con muros de rigidez o contravientos –si es
que los hay–, son los elementos que pueden soportar simultáneamente tanto
las cargas verticales como las horizontales.
La resistencia de una estructura o de cualquier elemento que la conforma
es la propiedad mecánica de soportar las fuerzas o cargas que se apliquen
durante su vida esperada sin presentar daños o falla de los materiales que la
componen. Los materiales con los que se fabrican las estructuras son diver-
sos, cada uno de ellos responde diferente a las acciones a las que es some-
tida la estructura y con distintos comportamientos mecánicos: el acero tiene
una resistencia similar si se somete a tensión o a compresión (si no existen
problemas de pandeo local o general); el concreto y las piezas que normal-
mente forman la mampostería soportan adecuadamente compresiones pero
no son aptas para resistir tensiones; la madera, a diferencia de los materiales
anteriores, es un material anisótropo, pues su comportamiento depende de
si las acciones a las que va a estar sometido tienen una dirección paralela o
perpendicular a sus fibras.
La rigidez K de una estructura o de cualquiera de sus elementos (marcos,
muros o contravientos) es la propiedad mecánica de resistir fuerzas o cargas
a las que estará sujeta durante su vida útil esperada sin sufrir deformacio-
nes, desplazamientos, etcétera, en exceso, ni tener un mal funcionamiento.
Su valor es el cociente de dividir la fuerza sísmica cortante V que resiste el
elemento entre la deformación relativa entre dos pisos consecutivos d, es
decir: K = V / d, esto es, “rigidez (K), es la fuerza (FS) necesaria, aplicada a un
marco, muro o contraviento, para producir una deformación unitaria (DH)”.
Dado que la estructura de un edificio está conformada por marcos, muros y
contravientos o por una combinación de ellos, los cuales poseen una cierta
rigidez, ante fuerzas horizontales de sismo cada uno ayudará a soportarlas de
forma proporcional a su rigidez. El centro de rigidez de una estructura es el
punto donde se pueden considerar concentradas todas las fuerzas resistentes
mencionadas.

112 Colección Textos FA ⓞ Tecnología


Si el centro de masas de un edificio coincide con el centro de rigidez y
si se producen en él aceleraciones producto de un evento sísmico, toda la
estructura estará sujeta a movimientos de traslación. Asimismo, si en un edifi-
cio el centro de masas no coincide con el centro de rigideces de la estructura
y se produce un evento sísmico similar al mencionado, toda la estructura es-
tará sujeta a movimientos de traslación y de rotación simultáneamente. A la
distancia entre el centro de masas y el centro de rigideces se le conoce como
excentricidad de la estructura. Como apunta Roberto Meli Piralla:

Desde un punto de vista del equilibrio, la fuerza actuante por sismo en cada
piso está situada en el centro de masa, mientras que la fuerza resistente lo
está en el centro de torsión, o sea donde se ubica la resultante de las fuerzas
laterales que resiste cada uno de los elementos. Si entre esos dos puntos
existe una excentricidad, la acción en cada entrepiso estará constituida por
una fuerza cortante más un momento torsionante cuyo efecto debe tomarse
en cuenta en el diseño.1

En una estructura cuya cubierta o entrepiso no se pueda considerar como


rígida (estructuras industriales o bodegas), cada uno de los elementos resis-
tentes a fuerzas horizontales se comportará de manera independiente de los
demás. Para ellas no se pueden aplicar los mismos principios que se han
mencionado para las estructuras que sí poseen diafragmas rígidos.
Una medida de la rigidez del marco de un edificio sometido a las fuerzas
generadas por eventos sísmicos es la distorsión de entrepiso o deriva g, en-
tendida como la diferencia de deformaciones horizontales de un entrepiso
respecto al inmediato inferior, dividida entre la altura del entrepiso; es decir:
g = d / h. La distorsión del entrepiso es el índice más importante para la deter-
minación de la magnitud de los posibles daños de una estructura sujeta a
fuerzas sísmicas, por ello se debe cuantificar su respuesta a fuerzas sísmicas y
comparar su comportamiento mediante el uso de diferentes sistemas estruc-
turales. Las Normas Técnicas Complementarias para Diseño por Sismo del
Reglamento de Construcciones para el Distrito Federal lo expresa de la si-
guiente forma:

1.8 Revisión de desplazamientos laterales


Las diferencias entre los desplazamientos laterales de pisos consecutivos
producidos por las fuerzas cortantes sísmicas de entrepiso, calculados con
alguno de los métodos de análisis sísmico que se describen en los capítulos
8 y 9, y teniendo en cuenta lo dispuesto en la sección 1.6, no excederán
0.006 veces la diferencia de elevaciones correspondientes, salvo que no
haya elementos incapaces de soportar deformaciones apreciables, como
muros de mampostería, o éstos estén separados de la estructura principal de
manera que no sufran daños por sus deformaciones. En tal caso, el límite en
1 Roberto Meli Piralla, Diseño Estructural,
cuestión será de 0.012. p. 451.

Los marcos, muros y contravientos en la estructura 113


El muro confinado no puede soportar deformaciones Los muros de carga y los muros de rigidez proveen una
apreciables ya que es un elemento íntimamente ligado al rigidez de gran importancia y magnitud a la estructura,
marco. El muro no confinado, para que así lo sea, debe se- razón que los vuelve muy eficientes en el trabajo de las
pararse del marco a una distancia igual o mayor a 0.012 H. estructuras siempre y cuando se tomen en cuenta en el
Se debe distinguir el trabajo estructural de los diferen- proyecto arquitectónico y se construyan adecuadamente.
tes tipos de muros que pueden existir en una edificación,
los cuales se mencionan a continuación:
Ductilidad
Muro de carga: es aquel muro que impide la deforma-
ción vertical y la deflexión horizontal del elemento La ductilidad es la propiedad dinámica de la estructura y
o elementos estructurales que se apoyan en él, así de los materiales que la conforman. De igual importancia
como la deformación vertical que pudieran producir que la resistencia y la rigidez, proporciona un índice de
las cargas gravitacionales y la deflexión horizontal su comportamiento; se dice que un material tiene buena
que pudieran producir las cargas horizontales de ductilidad cuando, al rebasar su esfuerzo de fluencia, de-
viento o sismo. Normalmente en la construcción sarrolla una considerable deformación inelástica antes de
se usa como cimbra, de tal manera que al fraguar fallar, lo cual se traduce en que “avisa” que está a punto
el concreto y descimbrar el colado, el muro impide de falla. La ductilidad de una estructura es su capacidad de
cualquier deformación vertical. De igual manera, el mantener su resistencia para deformaciones muy superio-
muro de carga se podría construir después de colar res a aquélla para la que se inició la fluencia. Por su parte,
los elementos de concreto, pero con la precaución la ductilidad de un material, de un elemento estructural o
de construir el muro antes de descimbrar la estructu- de un sistema estructural es la relación de la deformación
ra, de esta forma si ocurriera un sismo que generara última e u entre la deformación de fluencia e y, esto es:
fuerzas horizontales, el muro impediría las deflexio- m = e u / e y. Por ejemplo, en la gráfica esfuerzo-defor-
nes horizontales; ante las fuerzas gravitacionales el mación del acero, el punto de fluencia tiene la abscisa
muro impide las deformaciones verticales. ey, que es donde el acero empieza a fluir, y la abscisa de
Muro de rigidez: es aquél que no impide la deformación resistencia última eu, que es el punto de máxima resisten-
vertical (flecha) del elemento o elementos estructura- cia del acero.
les que se apoyan en él, ya que se construye después
de descimbrada la estructura, por lo que ya se deformó
verticalmente. No obstante, impide la deformación
horizontal de la estructura que lo contiene ante fuer-
zas horizontales de viento o sismo. La construcción
de esta clase de muros se logra al fabricarlos después
de descimbrada la estructura pero empacándolos per-
fectamente en aquélla que lo contiene colocando, por
ejemplo, cadenas horizontales y castillos verticales.
Muro de relleno: también conocido como muro tapón,
es aquél que no impide la deformación vertical del
elemento o elementos estructurales que se apoyan en
él, ya que se construye después de descimbrada la es-
tructura, de manera que ya se deformó verticalmente; El comportamiento o respuesta de una estructura tam-
además, se separa de los elementos verticales de la es- bién se puede definir con el factor de ductilidad global o
tructura una longitud suficiente para que no impida la de conjunto de la estructura; se dice entonces que es la
deformación horizontal de la estructura ante las fuer- relación entre el desplazamiento en la punta de la estruc-
zas de viento o sismo. tura al presentarse el colapso teórico y el desplazamiento

114 Colección Textos FA ⓞ Tecnología


en la misma punta al presentarse la primera fluencia en La fuerza resistente que se opone a la deformación de
alguna sección de la misma. Asimismo, se puede utilizar un elemento estructural es la rigidez, o dicho de otra for-
el factor de ductilidad de entrepiso, en cuyo caso se de- ma, la rigidez K de un marco es la relación que hay entre
fine como la relación del máximo desplazamiento que la fuerza V aplicada al elemento y la deformación d que
puede aceptar el entrepiso antes del colapso y el despla- produce dicha fuerza: K= V/d. En un sistema estructural el
zamiento al que se presentó la primera fluencia en alguna centro de torsión cT del piso en estudio es la posición de
sección que la compone.2 Lo anterior se puede resumir coordenadas (xT,yT) de la resultante de las fuerzas resisten-
de la siguiente forma: tes de cada uno de los elementos estructurales, marcos,
muros o contravientos que contiene el piso.
El arte del diseño antisísmico no consiste sólo en crear Las fuerzas horizontales V que genera un sismo osci-
estructuras capaces de resistir un conjunto dado de car- latorio en cada piso de una estructura se localizan en el
gas laterales, aunque tal capacidad es parte de un buen centro de masas de las cargas que actúan en ese piso; su
diseño. Implica más bien producir sistemas caracteriza- magnitud es el producto de la masa por las aceleraciones
dos por una combinación óptima de propiedades tales producidas por el sismo. El centro de masa cM de cada
como resistencia, rigidez y capacidad de absorber ener- piso es la posición de coordenadas (xM,yM) de la resultante
gía y de deformarse dúctilmente, que les permitirá res- de las fuerzas horizontales V que actúan en el piso.
ponder a sismos frecuentes de intensidad moderada sin Si las coordenadas del centro de masa (xM,yM) coin-
sufrir daños serios y a sismos excepcionales de gran se- ciden con las coordenadas del centro de torsión (xT,yT),
veridad sin poner en peligro su estabilidad, su contenido la fuerza horizontal producida por un sismo provocará
o a sus ocupantes. Lograr este propósito implica mucho un movimiento de traslación del piso considerado en la
más que la mera aplicación de especificaciones; exige misma dirección de la fuerza mencionada.
un entendimiento de los factores básicos que determinan Por el contrario, si las coordenadas del centro de masa
la respuesta sísmica de las estructuras, así como el inge- (xM ,yM) no coinciden con las coordenadas del centro de
nio para crear sistemas con las propiedades requeridas.3 torsión (xT , yT), su diferencia será el valor de la excentri-
cidad: (ex , ey) donde ex = (xT - xM) y ey = yT-yM. Producirán
Sistemas estructurales en el proyecto arquitectónico un momento de torsión MT , en el plano del piso en consi-
deración, con valor de MT = Vx ey , si la fuerza horizontal
Es común contar en los sistemas estructurales de las edi- producida por el sismo tiene dirección en el sentido x; ó
ficaciones elementos como marcos, muros, contravientos MT = Vy ex, si la fuerza horizontal producida por el sismo
verticales o alguna combinación de ellos. La rigidez, en tiene dirección en el sentido y, lo cual producirá un mo-
cualquiera de estos elementos estructurales, depende, en vimiento de traslación y de rotación del piso considerado,
primer lugar, del material de su construcción, definido teniendo como centro de giro el CT tal como se indica en
por su módulo de elasticidad E; un segundo elemento de las siguientes figuras.
igual importancia que proporciona rigidez a los marcos y
a la estructura en su conjunto es la geometría del marco,
o sea la altura de los entrepisos, el claro entre columnas
y las propiedades geométricas de las secciones transver-
sales de trabes y columnas, donde el momento de inercia
es de vital importancia. Si a los marcos se le adicionan
contravientos de manera que trabajen monolíticamente,
su rigidez aumenta de manera considerable; asimismo,
si a dichos marcos se le adicionan muros de concreto o 2 Roberto Mello, op.cit.
mampostería, de manera que también trabajen en con- 3 Luis Esteva Maravoto, “Capítulo 3”, Diseño
de Estructuras Resistentes a Sismos, Emilio
junto con el marco, la rigidez del conjunto marco y muro Rosenblueth ed., p. 106.
aumenta aun más que con los contravientos.

Los marcos, muros y contravientos en la estructura 115


Lo expresado hasta aquí es el concepto general. Hay necesidad de modi-
ficar los valores de la excentricidad por lo marcado en las Normas Técnicas
Complementarias para Diseño por Sismo, las cuales incrementan los valores
por considerar las excentricidades accidentales que prevén una distribución
no uniforme de las cargas consideradas, entre otras aspectos importantes por
tomar en cuenta.
Como se ha mencionado, el proyecto arquitectónico, desde su concep-
ción, debe tener claro y valorar estos conceptos para lograr una respuesta
óptima de la estructura ante movimientos sísmicos y así conseguir una cons-
trucción segura, económica y de fácil construcción.
Es de tomarse en cuenta que en el desarrollo de un proyecto los muros que
normalmente son convenientes para rigidizar la estructura son continuos desde
su cimentación hasta la azotea, tales como los muros colindantes, los de cubos
de escalera o de elevadores y algunos que el proyecto arquitectónico permita.
Se debe observar que no siempre es conveniente construirlos como muros de
rigidez, como cuando son los colindantes en edificios de esquina, ya que en
cada dirección solamente se tendrá un muro, el colindante, que no tendrá
forma de equilibrarse con otro paralelo, ya que la fachada requiere espacios
entre columnas libres. Otro caso similar es cuando los cubos de elevadores o
escaleras se ubican en puntos no simétricos de la estructura en su conjunto, ya
que si no se tiene forma de equilibrar su rigidez con otro paralelo, producirá
excentricidades de rigidez, y por consiguiente, torsión a la estructura.
Un ejemplo práctico del efecto que producen los muros en una estructura
se presenta al observar como da vuelta un camión de orugas: para girar a la
derecha necesita frenar la oruga de la derecha. El efecto de los muros con-
siste en que, ante la presencia de fuerzas de sismo, frenan el movimiento de
la estructura en el eje donde se encuentra el muro; provocan así una torsión
que incrementa los esfuerzos en todos los elementos que la forman.
Cuando el uso de un muro no es conveniente por los efectos indeseables
que produce en la estructura se tiene la opción de construirlo como muro de
relleno o tapón; para ello es necesario construirlo con una holgura entre las
columnas y la trabe superior que lo confinan. En este caso aparece otro pro-
blema de fácil solución, que es el posible volteo del muro al no estar confina-
do en la estructura que lo impida; esto se soluciona proporcionándole algún

116 Colección Textos FA ⓞ Tecnología


dispositivo que restrinja el volteo, como puede ser el dejar ahogadas varillas
en la trabe o losa superior, las cuales se introduzcan en un tubo alojado en
el muro, de forma que la varilla impida el volteo del muro pero que el mo-
vimiento del marco no sea restringido por el mismo. Existen otras formas de
impedir que un muro de relleno no se voltee, como el fijar ángulos de acero
a la losa, los cuales, separándolos del muro, impidan el volteo del muro pero
no el desplazamiento del muro sujeto a fuerzas horizontales de sismo.
Algunas recomendaciones en el uso de marcos, muros y contravientos
son:

a) Debe lograrse una estructuración lo más uniforme posible, conser-


vando el mismo tipo de elementos de rigidez en toda la altura y evi-
tando, por ejemplo, suspender bruscamente un muro de concreto,
mampostería o contravientos en un nivel determinado, o suspender
un muro de concreto o mampostería.
b) No tener cambios bruscos de rigidez por la suspensión del elemento
en un nivel considerado.
c) No tener cambio, en un nivel considerado, de un elemento estructu-
ral de determinada rigidez por otro de menor rigidez.
d) No pretender equilibrar la rigidez de un elemento ubicado en planta
con otro de características constructivas diferentes, como es el caso
de tratar de equilibrar la rigidez de un muro de tabique con la rigidez
de un marco contraventeado, pues tienen comportamientos estruc-
turales de ductilidad diferentes; mientras que el muro de tabique se
fractura ante pequeñas deformaciones que lo hacen perder rigidez,
el marco contraventeado soporta deformaciones mayores al tener
mayor ductilidad. Lo mismo sucede cuando se trata de equilibrar la
rigidez de un muro de concreto de cierta longitud con otro de mam-
postería de mayor largo.

Referencias

Bazán, E. y R. Meli. Diseño sísmico de edificios. México: Limusa, 2004.


Dowrick, D. J. Diseño de estructuras resistentes a sismos para ingenieros y
arquitectos. México: Noriega Limusa, 1990.
Gobierno del Distrito Federal. Reglamento de Construcción para el Distrito
Federal, 2004.
. Normas Técnicas Complementarias del Regla-
mento de Construcciones para el Distrito Federal, 2004.
Meli, R. Diseño estructural. México: Limusa, 2001.
Rosenblueth, Emilio ed. Diseño de estructuras resistentes a sismos. México:
Imcyc, 1992.

Los marcos, muros y contravientos en la estructura 117


118 Colección Textos FA o Tecnología
Elementos finitos como alternativa de solución de
modelos analíticos en proyectos de estructuras no
convencionales. Un enfoque práctico
Juan José Ramírez Zamora

Metodologías existentes para la solución de modelos analíticos de


estructuras

A lo largo de la historia el ser humano ha desarrollado métodos diversos


para la comprensión de los fenómenos físicos que lo rodean con la finalidad
de tratar de predecir y resolver problemas de la vida cotidiana. De ellos se
distinguen principalmente dos grandes ramas: la experimentación física y
los modelos analíticos, que a su vez son considerados parte de los mode-
los matemáticos. Gracias al desarrollo tecnológico y, particularmente, a las
computadoras, se ha avanzado a pasos agigantados en la rama del modelado
analítico. Muchas veces se utiliza la experimentación física para calibrar los
modelos matemáticos y comprobar la precisión de los resultados.
En algunos casos se obtiene un modelo analítico utilizando un número
finito de componentes bien definidos (sistemas discretos); en otros casos se
idealiza una subdivisión infinita de elementos, siendo necesario, para la defi-
nición del problema, el uso de sistemas de ecuaciones diferenciales (sistemas
continuos). La solución de los sistemas discretos es aproximada mientras que
la solución de los sistemas continuos es exacta.
Con ayuda de las computadoras se pueden resolver de manera relativa-
mente sencilla los problemas que involucran sistemas discretos, aun cuando
la complejidad y el número de elementos sean muy elevados. Por otro lado,
dado que la capacidad de las computadoras es finita, los problemas que
involucran sistemas continuos sólo se pueden resolver de manera exacta por
medio de manipulaciones matemáticas disponibles que generalmente redu-
cen la gama de posibilidades a casos muy simplificados.1
Ingenieros y matemáticos han abordado de manera diferente la discreti-
zación de los sistemas continuos; los primeros desarrollaron una manera de
1 O. C. Zienkiewicz, El método de los
obtener soluciones razonablemente buenas de un problema continuo con la elementos finitos, España, Reverté, 1982,
suposición de que pequeñas porciones del mismo se comporten de manera pp. 1-3.
simplificada. La posición adoptada por los ingenieros es de analogía directa,
de donde surge la expresión “elemento finito”.

119
01 02

01-02. Estructuras de forma libre A la par del método de los elementos finitos existen dos más que ofrecen una
Fuente: Architectural Geometry
alternativa ante alguna problemática similar. Estos métodos suelen nombrarse
como método de las diferencias finitas y método de los elementos de frontera.
El método de elementos finitos ha ganado fuerza en ingeniería civil como
una aplicación para la solución de sistemas estructurales simples y complejos.
Dada la importancia que representa, se han desarrollado programas de cóm-
puto o paquetes de software; desde los más sencillos, que resuelven problemas
sólo en dos dimensiones con pocas variables idealizando el comportamiento
de los materiales a elásticos lineales; hasta los más complejos, que resuelven
problemas en tres dimensiones, consideran un gran espectro de las variables
físicas reales e incluyen materiales con comportamiento inelástico lineal.
La utilización de tal o cual programa dependerá de las necesidades de cada
proyecto y del criterio del ingeniero calculista.
Actualmente se desarrollan en todo el mundo proyectos con formas cada vez
más libres y menos apegadas a lo convencional, donde tiene una gran demanda
y un fuerte potencial de crecimiento el método de los elementos finitos. Al ser
los arquitectos los actores principales en la concepción de los proyectos, y el
método de los elementos finitos una de las técnicas más utilizadas en la solu-
ción de los problemas de ingeniería estructural, se vuelve casi indispensable un
canal de información bilateral para que los modelos vayan lo más apegados a
sus ideas y representen una solución viable.

Conceptos básicos que rigen el método de los elementos finitos:


algoritmo matemático general enfocado a ingenieros y arquitectos

La idea principal del método de elementos finitos es encontrar la solución de


un problema complejo (modelo continuo que se resuelve con un sistema de
ecuaciones diferenciales) mediante su reemplazo por un conjunto de proble-
mas simples (modelo discreto de elementos finitos en donde las ecuaciones
diferenciales se cambian por ecuaciones algebraicas para cada elemento
y se combinan para generar un sistema global de ecuaciones algebraicas).
Como resultado de la simplificación del problema, la solución es aproximada.
Generalmente es posible mejorar la aproximación a la solución exacta si se
utiliza un mayor número de subelementos de menor tamaño; esto implica
simplemente un incremento en el tiempo de procesamiento en la computadora.

120 Colección Textos FA o Tecnología


Aunque el método de los elementos finitos se ha utilizado principalmente
para resolver problemas de mecánica estructural (esfuerzos y deformaciones),
la metodología se extiende a la resolución de otros problemas de ingeniería,
tales como conducción térmica, dinámica de fluidos y campos electromag-
néticos. Históricamente, se sabe que el método de elementos finitos se em-
pezó a utilizar en ingeniería aeroespacial y, dada la naturaleza del método,
se encontró aplicación en otros problemas de la ingeniería convencional.2
Para la solución de problemas de ingeniería estructural mediante el mé-
todo de elementos finitos se distingue una serie de pasos bien ordenados,
mismos que se describen a continuación.

Discretización del modelo continuo


La estructura o modelo total se subdivide en partes más simples llamadas ele-
mentos. Los programas que se utilizan para el modelado 3d generalmente operan
con coordenadas cartesianas. En problemas de una dimensión, el modelo es
dividido en líneas rectas que sumadas pueden formar arcos curvos; en problemas
de dos dimensiones es dividido en triángulos o paralelogramos de lados rectos
o de lados curvos; en problemas de tres dimensiones es dividido en tetraedros,
cubos o superficies curvas. El número, tamaño, tipo y arreglo de elementos se
decidirá en función del tipo de estructura por modelar. Los elementos están
interconectados por medio de puntos que generalmente son llamados nudos.3

03

03. Sistema de referencia, regla


de la mano derecha
Fuente: Architectural Geometry

04. Discretización de un modelo


Fuente: Architectural Geometry

2 Singiresu S. Rao, The finite element


04
method in Engineering, Florida, Elsevier,
1989, pp. 3-14.
3 Carlos Rubio G. y Víctor Romero M.,
Método del Elemento Finito, Fundamentos
y aplicaciones con ansys, México, Limusa,
2001, pp. 11-17.

Elementos finitos como alternativa de solución de modelos analíticos 121


Se han desarrollado diversas técnicas matemáticas y algoritmos geométri-
cos para la discretización de los modelos contemplando diferentes figuras y
dejando como parámetro por lo regular la cantidad de elementos del sistema.

Selección de un modelo apropiado de desplazamientos


Según el tipo de problema que se piense resolver, se define una relación básica
entre esfuerzos y deformaciones que sea lo más simple posible. Actualmente
existen programas que ya tienen dentro de sus algoritmos opciones para
resolver problemas elásticos lineales o no lineales, térmicos, etcétera, gene-
ralmente basados en la ley de Hooke [F = Kd], donde F es la fuerza aplicada,
K la rigidez y d los desplazamientos.
Bastará entonces con escoger el tipo de software que mejor se adapte a las
necesidades de cada proyecto.

Obtención de las matrices de rigidez de los elementos y del vector de cargas


De la definición del modelo de desplazamientos se obtienen las matrices
de rigidez y el vector de cargas para cada elemento utilizando la técnica de
condiciones de equilibrio o un principio de cálculo de variaciones, mismos
que no son objetos de estudio de este texto pero se pueden consultar en la
referencia bibliográfica de la nota tres.

Ensamble de ecuaciones de equilibrio global


Debido a que la estructura está compuesta por un conjunto de elementos
finitos, se tiene que ensamblar las matrices de rigidez locales y los vectores
de fuerzas locales en sistemas de rigidez y fuerzas globales, para así definir el
sistema de ecuaciones que gobernará el comportamiento del sistema.

Solución del sistema de ecuaciones (desplazamientos en los nudos)


En la solución del sistema de ecuaciones se tiene que considerar las condi-
ciones de frontera del problema.

Cálculo de esfuerzos y deformaciones


Una vez conocidos los desplazamientos en los nudos, se recurre a las ecua-
ciones que rigen la mecánica de los materiales para estimar los esfuerzos y
las deformaciones en cada elemento.

¿Porqué y cuándo es conveniente usar el método de los elementos


finitos? Criterios generales para la toma de decisiones

En muchas de las ramas de la ingeniería y en particular en la ingeniería estruc-


tural, los procesos de análisis y diseño van de la mano. Hasta este momento
se ha abordado el tema de los elementos finitos como una metodología para
resolver problemas de ingeniería. Es necesario enfatizar que el método se
aplica en la fase de análisis y que en la medida en que se pueda combinar con
un proceso de diseño eficiente, se podrá lograr la optimización de estructuras

122 Colección Textos FA o Tecnología


con relativa facilidad. La mayoría de los códigos o normas de construcción
basan sus leyes o reglas en resultados experimentales realizados en laboratorios.
El método de los elementos finitos ofrece la opción de la simulación virtual por
computadoras donde sólo al final del proceso se usan prototipos de pruebas
experimentales para verificar los resultados. Por tanto, el método de elementos
finitos conjugado con un proceso de diseño eficiente es una gran herramienta
para la optimización de las estructuras. Es conveniente usarlo también para
ahorrar costos de experimentación y fabricación de prototipos de pruebas.

Ventajas y desventajas del método de los elementos finitos

Dentro de las ventajas del método es posible enunciar las siguientes:

•• Tiempos relativamente pequeños para el modelado de estructuras complejas


•• La geometría se puede obtener generalmente en programas cad, con los
cuales están muy familiarizados la mayoría de ingenieros y arquitectos
•• Permite comparar fácilmente distintas alternativas de diseño para poder
llegar a la optimización
•• Se puede utilizar materiales con comportamiento elástico lineal y no lineal
•• Se basa en conocimientos matemáticos sólidos
•• Se puede estimar el error en los resultados

Entre las principales desventajas del método resaltan las siguientes:

•• Se pueden cometer errores fácilmente cuando no se tiene experiencia


en el modelado 3d de la estructura. Los errores pueden ser de discre-
tización, de formulación o errores numéricos; los dos primeros son
responsabilidad del usuario y el último generalmente se atribuye al de-
sarrollador del software
•• La precisión de los resultados depende de la densidad de elementos utili-
zada; es decir, depende del usuario y su experiencia en el uso del método
•• Tratándose de análisis estructural, debe tenerse cuidado especial en zonas
de concentración de esfuerzos y debe ser cuidadosamente analizado
mediante una discretización más fina para obtener resultados confiables
•• Sin un conocimiento sólido de física y matemáticas y sin experiencia
en el análisis y diseño de estructuras se puede cometer graves errores

Consejos para el modelado 3d enfocado a la utilización del método de


los elementos finitos

El modelo de análisis generalmente es generado en algún software con compati-


bilidad de archivos cad. Uno de los principios básicos del modelado es trabajar
en escala real, es decir que el tamaño de los objetos deberá ser el mismo que en
la realidad, sin escalarlo; asimismo, sólo deberá elegirse el sistema de unidades
que más convenga, según el programa de análisis de elementos finitos.

Elementos finitos como alternativa de solución de modelos analíticos 123


El objetivo del análisis por medio del método de los elementos finitos es
determinar de forma precisa la respuesta de un sistema modelado con una
cantidad finita de elementos y sujeto a unas cargas determinadas. En la gene-
ración de un modelo por elementos finitos siempre se tiene presente que se
está desarrollando un modelo, el cual es una idealización de un sistema físi-
co real. Con muy pocas excepciones, como el del análisis estático de vigas
simples, marcos y sistemas de membranas, el método de elementos finitos
no genera una solución “exacta”. Sin embargo, con un modelo adecuado se
puede obtener una solución precisa. Cuando la formulación analítica de un
problema es difícil de desarrollar, el método de los elementos finitos es uno
de los más fiables para afrontar el problema.
En la creación de un modelo se debe insistir en la precisión y la efi-
ciencia computacional. En la mayoría de los casos, el uso de un modelo
complejo y muy refinado no es justificable aunque probablemente genere
mayor exactitud, a expensas de un innecesario incremento en el tiempo de
procesamiento. El tipo y la complejidad del modelo dependen sobre todo del
tipo de resultados requeridos. Como regla general, un modelo de elementos
finitos puede empezar con un modelo simple. Los resultados de este modelo
sencillo, combinados con la comprensión del comportamiento del sistema,
pueden ayudar a decidir si es necesario refinar el modelo y en qué parte del
mismo.4
Los programas comerciales de elementos finitos poseen una gran cantidad
de elementos en sus librerías. No obstante, la mayoría de las estructuras y
aplicaciones mecánicas pueden ser solucionadas con los elementos básicos,
los cuales se pueden dividir en tres categorías generales: línea, área y volumen.
Truss, beam y los elementos de restricción son de línea. Plane stress, plain
strain, axisymmetric, membrane, plate y shell son elementos de área. Solid
o brick, tetrahedral y hexahedral son elementos de volumen. Los modelos
pueden constituirse por combinaciones de elementos de la misma categoría
o de diferentes, y así generar estructuras de marcos rígidos tipo truss o beam
con muros de carga tipo shell o brick.5
El elemento truss es un elemento que se distingue por que sólo puede
comportarse como un miembro sometido a cargas que deben estar dirigidas a
lo largo del eje longitudinal del elemento. En una estructura los elementos se
pueden modelar como un elemento truss si cumplen estos tres requerimientos:

•• Su longitud es mucho mayor que su alto o ancho


•• Su longitud está conectada al resto de la estructura con pernos o pasa-
dores que no transfieren momentos
•• Las cargas externas sólo son aplicadas en el extremo de los elementos
4 Alfonso Cubillos, “Introducción al método
de los elementos finitos” [documento y son paralelas al mismo (carga axial). Los elementos truss sólo pueden
electrónico], disponible en http:// ser sometidos a tracción o compresión; de esta forma, la única propie-
almec.files.wordpress.com/2007/08/
matlabyalgebra.pdf [s.f.c] dad de la sección que se debe especificar es el área axial del elemen-
5 Ibid.
6 Ibid.
to. Un elemento truss tridimensional posee tres grados de libertad por
nudo, esto es tres desplazamientos sobre los ejes globales x, y y z 6

124 Colección Textos FA o Tecnología


El elemento beam es probablemente el más usado. Además de sus apli-
caciones obvias en estructuras, muchos otros sistemas, como uniones me-
cánicas, sistemas de conductos, tuberías y vigas en puentes, pueden ser
modelados con este tipo de elementos. En los elementos beam una de sus
dimensiones debe ser mucho mayor, por lo menos diez veces más grande
que las otras dos. A diferencia del elemento truss, el elemento beam puede
estar sometido a cargas transversales y momentos flexionantes adicionales a
la tracción y compresión. El elemento beam tridimensional posee seis grados
de libertad por nudo, tres desplazamientos sobre los ejes globales y tres rota-
ciones alrededor de los ejes globales. 7
Los elementos beam y truss actúan en una dimensión. En el caso de ele-
mentos bidimensionales se contemplan tres tipos básicamente:

•• Plane Stress Elements (esfuerzo plano)


•• Plane Strain Elements (deformación plana)
•• Axisymmetric Elements (elementos de ejes simétricos)

Para el caso del análisis plano, existen principalmente dos tipos de ele-
mentos: triangular y cuadrilátero. Según el tipo de esfuerzo al que está some-
tido el elemento, éste se debe modelar como esfuerzo plano o deformación
unitaria plana. Como regla, se prefieren los elementos cuadriláteros a los
triangulares por razones de isotropía geométrica; sin embargo, se sugiere
el uso de elementos triangulares cuando se presentan irregularidades en la
geometría del elemento por modelar.
Tanques de acero y concreto, rotores, conchas, toberas y contenedores
son algunos ejemplos representativos de estructuras modeladas con elemen-
tos de ejes simétricos. De forma similar a las estructuras tridimensionales,
que están bajo condición de esfuerzo plano o deformación plana, las estruc-
turas con elementos de ejes simétricos sometidas a cargas de ejes simétricos
pueden ser analizadas en un modelo bidimensional.
Los elementos sólidos son elementos tridimensionales con tres grados de
libertad de traslación por nodo. Los nodos son usualmente introducidos en la
intersección de los tres planos o a la mitad de la intersección de dos planos.
El elemento brick puede proveer información acerca de la variación tridi-
mensional de los esfuerzos y deformaciones del elemento. 8
Al igual que los elementos brick, los elementos tetrahedral y hexahedral
pueden ser usados para modelar estructuras tridimensionales. El tetraedro puede
ser visto como un triángulo en tercera dimensión, mientras que el hexaedro
como un cuadrilátero extendido en tercera dimensión. Se puede apreciar que
el hexaedro tiene la misma geometría que el elemento brick de ocho nodos,
entonces la diferencia entre estos dos es la formulación y precisión computa-
7 Ibid.
cional. Por lo general los elementos tetraedro y hexaedro poseen tres grados 8 Ibid.
de libertad por nudo y la precisión en el análisis se puede incrementar si se 9 Ibid.
colocan nudos entre los lados. 9

Elementos finitos como alternativa de solución de modelos analíticos 125


Selección del tipo de elementos

Antes de seleccionar el tipo de elemento para el modelo de una estructura


se recomienda dibujar un bosquejo del sistema físico donde se indique su
geometría, condiciones de frontera, cargas y discontinuidades geométricas o
de material. Además debe incluir un sistema de coordenadas globales y las
dimensiones de la estructura.10
Después se debe examinar si el modelo puede ser reducido o simplificado.
El esfuerzo plano, la deformación plana y los modelos de ejes simétricos per-
miten la reducción de problemas tridimensionales a bidimensionales. Además,
la presencia de planos de simetría permite modelar sólo una parte de la estruc-
tura. El bosquejo de un sistema físico puede ayudar en la selección del ele-
mento apropiado. Por ejemplo, para modelar cargas transversales o axiales en
elementos mecánicos, eléctricos y estructuras civiles se puede usar elementos
beam o truss. Los elementos de esfuerzos planos son apropiados para modelar
en el plano de acción placas y vigas cortas. Por su parte, los elementos de de-
formación plana se utilizan usualmente para modelar paredes de contención
y largos diques; en tanto que los elementos de ejes simétricos se emplean para
modelar estructuras que son rotacionalmente simétricas sobre uno de los ejes y
cargado simétrico o antisimétricamente sobre el mismo eje, como los cilindros
sometidos a presión interna. La selección del tipo de elemento o elementos
también depende del tipo de resultados esperados.11

Parámetros y patrones en el modelado

Crear un modelo apropiado es crucial en el análisis por medio de elementos


finitos. El objetivo es desarrollar el patrón de nudos más apropiado, que ge-
nere una cantidad suficiente de elementos para así obtener resultados sin de-
rrochar interpretación de datos y tiempo de cálculo. El modelo debe siempre
estar basado en un conocimiento conceptual del sistema físico y un juicio
anticipado del comportamiento de la estructura. Junto a la comprensión del
comportamiento del sistema, el analista debe hacer un esfuerzo para com-
prender los conceptos pertinentes de la teoría de los elementos finitos. Fallar
en el proceso implicaría obtener resultados sin sentido.12
Se enlistan a continuación las recomendaciones generales para desarrollar
modelos adecuados para sistemas estáticos y dinámicos. Es importante saber
que las recomendaciones no se aplican en todos los casos y que jamás susti-
tuirán el criterio y conocimiento de la ingeniería.

•• Definir los nudos sobre o cerca de los puntos de aplicación de cargas,


discontinuidades geométricas, soportes y todas aquellas regiones que
10 Ibid. requieran información acerca de los esfuerzos o desplazamientos.
11 Ibid.
12 Ibid. •• En la medida de lo posible, las mallas deben ser uniformes en tamaño
y forma; no obstante, donde se requiera por cuestiones de precisión, en
los resultados se deberá refinar.

126 Colección Textos FA o Tecnología


•• Privilegiar el uso de cuadriláteros, elementos sólidos de seis lados y
hexágonos, excepto donde los elementos triangulares y tetraedros son
necesarios para acomodar irregularidades geométricas y cargas.
•• Una malla más refinada es requerida para obtener con precisión esfuer-
zos y desplazamientos. Si es necesario realizar un estudio de conver-
gencia, por ejemplo, empiécese con un número relativamente pequeño
de elementos y progresivamente genere modelos más refinados. Existen
actualmente programas que son capaces de parametrizar ciertas varia-
bles en el modelado 3d, los cuales resultan de gran utilidad para gene-
rar cierta sensibilidad en el proceso de análisis y diseño. Se recomienda
ampliamente su uso. La proporción de los elementos es definida por la
relación entre la dimensión más grande y más pequeña del elemento.
Se recomiendan elementos que se caractericen por una proporción cer-
cana a la unidad y cuyos ángulos estén cercanos a los 90º.
•• Si el campo de esfuerzos tiene similar gradiente en todas las direccio-
nes, trate de mantener la proporción en uno. Elementos con alta propor-
ción pueden ser inválidos.
•• Para regiones con pequeñas variaciones de esfuerzos, el factor de pro-
porción puede ser alto, de 40 a uno, y aun así proporcionar buenos
resultados. Sin embargo, como regla general se recomienda mantener
el factor de proporción debajo de diez para análisis de deformación y
bajo tres para análisis de esfuerzo.
•• Debe evitarse los cambios repentinos en el tamaño de los objetos.
Cuando el uso de elementos de diferentes tamaños sea necesario, la
relación de dimensión de los objetos adyacentes debe ser menor a dos.
Para elementos triangulares, evite ángulos agudos menores a 30°; para
elementos cuadriláteros, evite ángulos obtusos mayores a 120°. Como
regla general, el uso de asimetría es aceptable cuando se esta interesado
principalmente en los desplazamientos. Sin embargo, si los esfuerzos de-
ben ser calculados con precisión, entonces el modelo debe tener menor
asimetría. Asimetría se define como la variación del ángulo del vértice
del elemento, desde 60° para triángulos y desde 90° para cuadriláteros.
•• Agujeros, grietas y cambios localizados de la geometría pueden ser carac-
terizados como discontinuidades geométricas. El modelamiento de dis-
continuidades geométricas depende del interés en la precisión del cálculo
de las deformaciones y esfuerzos en la proximidad de la discontinuidad.
Si no se está interesado en las deformaciones y esfuerzos en la disconti-
nuidad, se puede usar un modelo global de la estructura que posea una
malla gruesa alrededor de la discontinuidad. Si el objetivo es obtener la
respuesta cerca de la discontinuidad, puede emplearse un modelo local.
Contrario al modelo global, el modelo local usa una malla refinada en las
proximidades de la discontinuidad.
•• Cambios abruptos en las propiedades del material pueden ser modela-
dos como se plantea para las “discontinuidades geométricas”; esto es,
con la ayuda de modelos globales y locales.
•• Para materiales isotrópicos, la relación de Poisson no debe ser cercana a
0.5. Además, para una relación de Poisson cercana a cero la estructura

Elementos finitos como alternativa de solución de modelos analíticos 127


puede perder toda su rigidez y propiciar resultados erróneos. Para ma-
teriales anisotrópicos, el límite teórico de la relación de Poisson y el
modulo de Young, a lo largo de la dirección especificada, debe ser veri-
ficada con el fin de evitar soluciones inadecuadas.
•• Evitar modelos con elementos que tengan diferencias de rigidez mayores
a 104. La relación de rigidez máximo/mínimo usualmente se provee en
la salida numérica de los software comerciales. Grandes variaciones de
rigidez en el modelo puede conducir a singularidades y matrices autocon-
dicionadas, que no pueden ser numéricamente resueltas por el procesador.
Estas grandes variaciones en la rigidez pueden ocurrir en modelos que
contienen muy pequeños y muy grandes elementos.
•• Una malla refinada puede ser usada en las proximidades de un cambio
abrupto de la carga, con el fin de capturar las variaciones de esfuerzo
cerca de la carga.

Reflexiones generales. Comparativa con otros métodos de análisis

A diferencia del resto de los métodos, el de elementos finitos resulta ser


pieza clave para el desarrollo de ingenierías, particularmente de ingeniería
estructural. La practicidad de su aplicación y el gran abanico de opciones de
análisis con el que se cuenta actualmente, cuando se selecciona un software
adecuado, hacen de él lo más indicado para problemas de estructuras poco
convencionales. El resto de los métodos presenta inconvenientes para cierto
tipo de estructuras complejas; dichos inconvenientes pueden ser relativos al
excesivo tiempo de modelado para obtener resultados aceptables o a la in-
capacidad para modelar aspectos específicos que se requieren, como bordes
curvos o distribuciones no uniformes de cargas, apoyos no rígidos, etcétera.13

Siete ejemplos prácticos de solución de problemas utilizando el método


de los elementos finitos

Como se ha detallado en el contenido del texto, las aplicaciones y capaci-


dades del método son muchas. Se abordarán aquí sólo tres ejemplos de las
posibilidades que tiene, utilizando diferentes tipos de software.

Modelado de una estructura para un análisis estático lineal


Se trata de una estructura de geometría no convencional. Se utilizaron ele-
mentos tipo truss, beam y shell (plane stress). El software es capaz de resolver
el sistema estructural dado un sistema externo de cargas.

13 P. Dechaumphai, Finite element Method, Modelado de una cubierta para análisis de simulación en túnel de viento
Fundamentals and Applications ,Oxford, Se trata de una superficie compuesta por elementos triangulares y cuadran-
Alpha Science International LTD, 1990, pp.
3-25. gulares de tipo plane stress. El software resuelve el problema asignando valo-
res a las variables de propiedades del flujo y obtiene el mapeo de presiones
en las caras externas e internas.

128 Colección Textos FA o Tecnología


05. Estructura compuesta, tipo de
análisis elástico lineal

06. Superficie de doble curvatura


invertida, tipo de análisis de
dinámica de fluidos
05

Elementos Elementos
Elementos shell
beam truss

06

ELEMENtOS FINItOS cOMO ALtERNAtIVA dE SOLUcIÓN dE MOdELOS ANALÍtIcOS 129


Modelado de una cubierta ligera de membrana en interacción con una
07. Estructura de formas cónicas, estructura de soporte
tipo de análisis estático no lineal de
membranas
Se trata de una estructura que combina elementos tipo truss, beam y plane
stress. La diferencia es que hace un tipo de análisis estático no lineal debido
a que modela el comportamiento de grandes deformaciones de una mem-
brana textil.

130 Colección Textos FA o Tecnología


Referencias

Cubillos, Alfonso. "Introducción al método de los elementos finitos. Revisión del


álgebra matricial con Matlab". Notas del curso dictado en el segundo semestre
del 2004. Universidad de Ibagué, Programa de Ingeniería Mecánica. Disponi-
ble en http://almec.files.wordpress.com/2007/08/matlabyalgebra.pdf [revisado
en noviembre de 2014].
Dechaumphai, P. Finite element Method, Fundamentals and Applications. Oxford:
Alpha Science International ltd, 1990.
Pottmann, Helmut, Andreas Asperl, Michael Hofer y Axel Kilian. Architectural
Geometry. eua: Bentley Institute Press, 2007.
Rubio, G. Carlos y Víctor Romero M. Método del Elemento Finito, Fundamentos y
aplicaciones con ansys. México: Limusa, 2001.
Singiresu, S. Rao. The finite element method in Engineering. Florida, eua: Elsevier,
1989.
Zienkiewicz, O. C. El método de los elementos finitos. España: Reverté, 1982.

Elementos finitos como alternativa de solución de modelos analíticos 131


132 Colección Textos FA o Tecnología
La tecnología en la rehabilitación de inmuebles
patrimoniales

Agustín Hernández Hernández

Introducción

México cuenta con un patrimonio construido integrado por magníficas obras


que sintetizan el proceso evolutivo de nuestra cultura arquitectónica. No obs-
tante, en la actualidad existe poca experiencia para rehabilitar inmuebles del
siglo xx, pues los programas institucionales se han enfocado en atender con
mayor énfasis el patrimonio prehispánico y virreinal. Para empezar a tratar
este tema es importante establecer nuestro concepto de rehabilitación como
una actividad creativa que estudia aspectos cualitativos y cuantitativos, los
cuales permiten restituirle a los elementos estructurales que lo requieran sus
condiciones adecuadas de trabajo, sin alejarse del concepto arquitectónico
original.
Asimismo es importante señalar que la tecnología disponible para diseñar una
rehabilitación, o reestructuración como también suele decirse, debe enfocarse
siempre en crear soluciones y prevenir daños futuros; ello significa que, lejos
de imponerse, debe adaptarse. Ante esta circunstancia, el arquitecto requiere
de una serie de elementos metodológicos para proceder acorde al lugar y al
momento. Tales elementos se revelan en la formulación de un diagnóstico rigu-
roso basado en análisis tanto históricos como estructurales para comprender la
forma construida y descifrar la causa del estado actual de cualquier inmueble.
Bajo este esquema se puede deducir que si una construcción amerita rehabi-
litación es porque presenta fallas como grietas, deformaciones, hundimientos,
pérdida de elementos, humedades, erosiones y desprendimiento de elementos
o recubrimientos.

Metodología

La metodología usual en un proceso de intervención aconseja iniciar con


una inspección del sitio donde se identifiquen y registren grados de deterioro
en cubiertas, entrepisos, estructura soportante y cimentación, todas referen-
ciadas a un levantamiento actualizado. Respecto a la calificación de fallas,

133
es importante investigar si éstas ocurrieron de manera repentina o aparecie-
ron paulatinamente y de qué manera han progresado a través del tiempo.
También es válido basarse en las disposiciones complementarias sobre
evaluación y rehabilitación contenidas en las Normas Técnicas Comple-
mentarias para Diseño y Construcción de Estructuras de Mampostería. Éstas
proponen clasificar la magnitud de daños en cinco niveles: (insignificante,
ligero, moderado, severo y muy grave); y están dirigidas al cumplimiento de
la seguridad estructural que señala el título sexto del Reglamento de Cons-
trucciones para el Distrito Federal.

Medición de fallas

Una vez catalogadas las fallas, se realizan mediciones, consignando de ma-


nera explícita la fecha de lecturas, procedimiento y equipo empleado, con el
fin de poder relacionar los resultados entre sí, tanto en planta como en alzado.
De esta forma es posible empezar a interpretar lo que le ocurre a la estruc-
tura. Entre las mediciones más frecuentes podemos citar las nivelaciones, los
desplomos, las mediciones de grietas, las convergencias y el registro de hu-
medades.
Al proceder a interpretar cada medición de manera más imaginativa, las
deducciones deben complementarse con resultados del análisis de la morfo-
logía del conjunto, el geométrico y el estructural, ante cargas gravitacionales
y accidentales, con el fin de concebir probables consecuencias por los gra-
dos de deterioro.
En la actualidad se ha identificado la necesidad de diseñar también siste-
mas de monitoreo. Éstos han adquirido mucha relevancia ante la existencia
de incertidumbres en los resultados analíticos, producto de los métodos con-
vencionales de análisis de esfuerzos, los cuales presentan limitaciones para
investigar la respuesta estructural en condiciones históricas. Para ello, en el
mercado existen varios tipos de instrumentos para medir las fallas clásicas;
sin embargo, en ocasiones no tenemos los medios ni el tiempo para adqui-
rirlos; por tanto, resulta de gran apoyo una metodología integral en nuestra
toma de decisiones, ya que aunque el potencial que pueden ofrecer sea es-
pectacular, estas tecnologías son sólo herramientas de ayuda, no sustituyen
un buen criterio estructural y tampoco reemplazan la dedicación que debe-
mos destinarle al proceso. Otro aspecto que se debe considerar es que para
investigar un patrón de respuesta a través del tiempo se recomienda hacer
mediciones periódicas aproximadamente cada seis meses.
Vale la pena comentar que en ocasiones el grado de deterioro en ciertos
elementos puede ser tal que evidencia un colapso inminente, ante lo cual
el arquitecto tiene la tarea adicional de diseñar estrategias de intervención,
con el fin de garantizar la estabilidad de la construcción desde la etapa de
investigación.

134 Colección Textos FA o Tecnología


Material

En función de la implementación de una visión integral para formular una


reestructuración, resulta de vital importancia conocer la tecnología con que
fueron construidos los inmuebles, la conducta de sus materiales y su proceso
constructivo. Aunque en la mayoría de ellos predomina la mampostería que
se caracteriza por ser frágil y resistir principalmente esfuerzos de compre-
sión, en nuestro país también existen fantásticos ejemplos construidos con
adobe, madera y, en el siglo pasado, los de concreto y metal.
Esta diversidad hace necesario que el arquitecto posea un claro conoci-
miento sobre mecánica de materiales que le permita deducir el desempeño
de ciertos elementos a través del tiempo y saber como actuar cuando sea
necesario frenar su deterioro, estabilizarlos, incrementar su capacidad de
trabajo, protegerlos ante diversos agentes y crear procedimientos para hacer
reemplazos.
Respecto al conocimiento sobre la conducta de los materiales, con fre-
cuencia se recurre a consultar fichas técnicas, en lo que debemos ser escru-
pulosos. En su mayoría consignan resultados sobre especímenes nuevos o
en buen estado que difieren de nuestro caso de estudio; y luego, para tomar
decisiones, tales resultados se aplican para calcular el desempeño estructural
real de los elementos como expresión de la fragilidad inherente del material.
Entonces podemos llegar a identificar carencias que no fueron satisfechas
porque no había los medios para hacerlo, sin embargo ahora con la tecnolo-
gía disponible existen condiciones para superarlas.
Como sabemos, en los últimos veinte años a la práctica arquitectónica se le
ha incorporado de manera positiva la computadora en el proceso de diseño,
análisis y construcción. Esto ha conducido a implementar paulatinamente tec-
nología y procedimientos de manufactura concebidos para otras industrias que
se alejan de los procesos tradicionales y cuya inercia impulsa a la arquitectura
a este momento cultural que busca racionalizar tiempo y costo.

Morfología estructural

Para analizar el objeto arquitectónico es necesario remitirse al planteamiento


de su destino original y a la lógica interna de la construcción, cuando sus
proporciones, unidades y control de calidad eran diferentes respecto de los ac-
tuales. Asimismo, es razonable aceptar que si la obra ha llegado hasta nuestros
días es porque fue concebida y ejecutada con buen estándar, por lo que resulta
aconsejable conservar al máximo el comportamiento estructural original; aun-
que en la actualidad se planteen nuevos usos funcionales, las características
naturales del sitio difícilmente cambian.
En arquitectura, la teoría de “resistencia por forma” explica las conse-
cuencias del material en el partido estructural, la manera de disponer cada
elemento en el conjunto y por qué los hicieron de esa forma (tipología).

La tecnología en la rehabilitación de inmuebles patrimoniales 135


Estos fundamentos conducen a interpretar algunos secretos del arte de la
arquitectura para diseñar una reestructuración que respete la esencia de la
construcción.
Por lo regular, al analizarlas con enfoque compositivo, las trazas del partido
estructural ilustran que la estabilidad se basaba en las condiciones del borde
como principio de equilibrio del mecanismo confinado y como la silueta
por percibir permanentemente. Sobre todo porque, a decir del Dr. Fernando
López Carmona, estas construcciones resisten por forma, persisten por masa
y subsisten como mecanismos confinados entre masas restrictivas.
Asimismo, con algo de criterio puede identificarse una expresión arqui-
tectónica en ciertas regiones geográficas. A lo largo del siglo xx, el resultado
formal del partido estructural que brindaba mayor estabilidad y seguridad se
transformó en tipología; las obras eran posibles porque el costo de la mano
de obra era accesible y el factor tiempo irrelevante. Ante ese escenario, con
los materiales disponibles en cada región se desarrollaron técnicas construc-
tivas que han evolucionado de manera natural.

Planteamiento de la rehabilitación

Cuando empecé a estructurar este artículo percibí que abordar el tema sobre
la tecnología en la rehabilitación de inmuebles no se trataba de hacer un
recetario, ya que la tecnología, lejos de pretender imponerla, debemos adap-
tarla. Esto exige proceder de manera metódica para que un arquitecto pueda
comprender la forma construida como fundamento para motivar la creatividad
y sea coherente con su propio criterio de rehabilitación durante la concepción
de soluciones estéticas, funcionales y seguras.
Por ende resulta más útil mencionar diversos aspectos que se debe considerar
previamente, a la vez que citar algunas intervenciones estructurales habituales.
Éstas se han identificado a través de la experiencia sobre la cimentación, la
estructura soportante, los entrepisos y las cubiertas, y pueden incorporarse
oportunamente al definir el criterio de intervención acorde a la concepción
arquitectónica de la época.
En la práctica predominan los criterios conservador (no alterar la apariencia
ni el comportamiento original) y moderno (interpretación del inmueble para
privilegiar la estética acorde al nuevo destino). Cualquier criterio que elija o que
formule el responsable del proyecto es válido desde el punto de vista práctico,
porque ayuda a fundamentar las características de cada solución y conducir
apropiadamente las problemáticas de los imprevistos.

Sistemas de cimentación

Con frecuencia se apoyan en pedraplenes con mampostería de piedra pe-


gada con lodo, o con mezcla de cal en algunas ocasiones. Sólo resisten
compresiones y por lo regular no ofrecen continuidad debido a su proceso
constructivo dilatado en tiempo; incluso suelen presentar oquedades. Para

136 Colección Textos FA o Tecnología


mejorar su comportamiento en la práctica, conceptualmente se recurre a
modificar la distribución de cargas, ampliar la base de desplante, combinar
la cimentación por superficie con la de tipo compensación y equilibrar me-
diante la instalación de pilotes. Por lo regular se busca que al final la cimen-
tación trabaje como cuerpo rígido.
Vale la pena comentar que probablemente la primera recimentación para
capacitarla a flexión fue realizada en México, por el arquitecto Manuel Ortiz
Monasterio en la Catedral Metropolitana, de 1934 a 1937. Asimismo, por la
década de 1970, en varios monumentos se instalaron pilotes de control bajo
la firma del Ing. Manuel González Flores. Como se puede inferir, hasta 1990
varias técnicas de reestructuración se basaban en la tecnología del concreto
reforzado y del acero, porque había que reparar especialmente estragos oca-
sionados por los sismos que liberan la energía acumulada durante el paso de
los años por los hundimientos diferenciales.
A fines del siglo xx el fenómeno de los hundimientos diferenciales empezó
a tener mayor presencia, especialmente en las zonas de los centros históricos
de varias ciudades del país. La imposición de deformaciones irregulares al
suelo, al propagarse hacia la superestructura, produjo inclinaciones que alte-
raban la acción de contrarresto que garantiza la permanencia de las construc-
ciones. Entonces, en el seno del Comité Técnico de la Catedral de México, se
concibió que si la amenaza provenía del suelo, ahí era donde se debía actuar.
Con esa premisa fue posible crear la técnica de subexcavación, capaz de des-
aparecer la inestabilidad al renivelar la superficie del suelo para reponer las
relaciones geométricas del borde.
Este tipo de intervención correctiva es de respuesta inmediata y se experi-
mentó en el proyecto de corrección geométrica de la Catedral y el Sagrario
metropolitanos, que empezó en 1993 y concluyó en 1998. En dicho periodo
01
redujo la deformación acumulada de 2.4 m a 1.6 m.
Después se identificó como insuficiente recuperar sólo la condición topo-
01. El análisis cuantitativo de las
gráfica inicial que puso en peligro al monumento. En el Comité Técnico de deformaciones permitió definir el
la Catedral de México se acordó que debían hacerse los esfuerzos necesarios proyecto de subexcavación

para anular la causa del daño, y entre 1998 y el 2002 se realizó el mejora-
miento del suelo mediante inyecciones de mortero entre los 12.5 y 37.5 m de
profundidad, con el fin de reducir la magnitud del hundimiento diferencial,
entre dos puntos correspondientes del área construida.
Otra tecnología de carácter preventivo que se experimentó para controlar
la velocidad del asentamiento irregular fue la inyección de agua en el sub-
suelo. Los resultados de esta opción se verificaron en la Casa del Marqués
del Apartado, en el Centro Histórico de la Ciudad de México. Asimismo, es
importante mencionar que se requiere implementar un sistema de monitoreo
para dar seguimiento al comportamiento final, porque aunque se ha com-
probado la eficacia de dichas tecnologías, se tiene conocimiento de que el
fenómeno de los hundimientos diferenciales cambia con el tiempo.

La tecnología en la rehabilitación de inmuebles patrimoniales 137


Sistema de estructura soportante

Tiene la característica de resistir compresiones en su pla-


no. Es importante investigar su técnica constructiva, ya
que para resistir la tracción diagonal genera un mecanis-
mo de resistencia basado en su capacidad de compresión
y de cortante.
Cuando se decide intervenir el sistema estructural que
prácticamente transmite las cargas a la cimentación, es
importante analizar la posibilidad de corregir las causas
que motivaron los daños que presente; para ello se anali-
za la función de cada elemento para evitar que se vuelva
a dañar y ponga nuevamente en peligro la construcción.
Por lo regular se reparan mediante la consolidación de
grietas; la inyección de mortero; la adición de contrafuer-
tes; la incorporación de muros diafragma; la colocación de
tirantes reversibles y su confinación con cadenas y castillos
de manera que garanticen la conexión en ambas direccio-
nes. En este ámbito es importante identificar qué acciones
son pasivas y cuáles son activas, es decir que actúan in-
mediatamente. Debido a que algunas construcciones han
sido intervenidas de manera poco afortunada, en ocasiones
se deben reponer elementos como muros de cortante, de
lo contrario, si se anula la acción restrictiva, significaría
la ruina del inmueble.
Otra alternativa usual cuando se requiere incrementar
la capacidad estructural es la adición de aplanados estruc-
turales conformados con una capa de mortero reforzado
con malla anclada con conectores metálicos diagonales;
sin embargo, cuando las deformaciones son muy grandes
y presentan actividad, en función del patrón de grietas se
pueden diseñar juntas constructivas.

Sistema de entrepisos

Predominan los sistemas planos como el llamado piso


franciscano, cuya carac-terística de ser pesado aporta cierta
estabilidad para garantizar la acción de diafragma capaz
de unificar el rango de las deformaciones de la estructura
02 sustentante; sin embargo es importante revisar las condi-
ciones del envigado en las zonas de apoyo, donde con
02. Lumbrera tipo para la subexcavación en la Catedral frecuencia se pudre la madera y provoca que las fachadas
giren hacia afuera, lo cual evidencia la necesidad de res-
tituir la acción de tirante.

138 Colección Textos FA o Tecnología


03

03. Ilustra que el porcentaje de la


inyección fue mayor en las zonas
blandas y nulo en las zonas más
preconsolidadas

La tecnología en la rehabilitación de inmuebles patrimoniales 139


Fig. 4a. Velocidad del 29 de junio de 1998 al 28 de junio de 1999, año 1 Fig. 4b. Velocidad del 28 de junio de 1999 al 26 de junio de 2000, año 2

Fig. 4c. Velocidad del 26 de junio de 2000 al 18 de junio de 2001, año 3 Fig. 4d. Velocidad del 18 de junio de 2001 al 17 de junio de 2002, año 4

04

04. Serie de configuraciones


que ilustra una disminución del
hundimiento diferencial por efectos de
la inyección del suelo. Las unidades
de las curvas están en centímetros

140 Colección Textos FA o Tecnología


En las rehabilitaciones con frecuencia se recurre a reponer los sistemas de
piso incorporando losas sólidas de concreto o sistemas prefabricados, como
el de vigueta y bovedilla. Éstos se apoyan sobre el sistema estructural conce-
bido por quienes proyectaron el inmueble como un mecanismo equilibrado.
Es importante señalar que la eficacia de una estructura ante cargas tanto
verticales como horizontales depende de su capacidad de canalizar las fuerzas
resultantes hacia los elementos idóneos de la estructura soportante. Ante esta
circunstancia, la rigidez del sistema de entrepiso puede concebirse como el
artificio para controlar la distribución armónica, capaz de conducir las fuerzas
por el cauce adecuado.

Sistema de cubiertas

Es el componente más sensible a cualquier movimiento en una construcción;


significa que refleja las fallas antes que cualquier otro componente, por lo que
vale la pena interpretar cada señal de comportamiento. En muchas ocasiones
el patrón de grietas corresponde al sistema de rótulas frágiles, que define la ca-
pacidad del inmueble para reacomodarse a las nuevas condiciones mecánicas
antes de colapsar.
En México los sistemas que predominan son a base de superficies planas
resueltas con envigados tipo techo franciscano y bóveda tipo cañón corrido
de directriz circular. En ambos casos es importante percibir la estabilidad del
conjunto restrictivo y poner atención en el desarrollo de las condiciones de
apoyo, de manera que busquen la reacción unitaria contra sismo y viento.
En un principio abundaron las bóvedas construidas con cimbra a base de un
material tipo ciclópeo, después aparecieron procedimientos capaces de supri-
mir esa cimbra. No obstante, en ambos casos es importante analizar primero la
traza que materializa la forma natural del material, lo cual implica conocer las
leyes que rigen la trayectoria original de las fuerzas para establecer la transmi-
sión de cargas de manera eficaz hasta la cimentación. De esta forma se verifica
que continúe el predominio de los esfuerzos de compresión, ya que el trabajo
intelectual intrínseco en estas obras se manifiesta en la baja magnitud de los
esfuerzos internos a que está sometido el material en el espacio.
Al analizar cada elemento construido se verifica que el factor de seguridad
está en función de la mecánica de su geometría, no de la intensidad de es-
fuerzos a que está sometido el material; es decir que la estructura alcanza su
desempeño adecuado cuando trabaja a esfuerzos de compresión en todas sus
partes. Esto se ilustra al aplicarse la teoría del polígono funicular. Respecto a las
grietas que aparecen a través del tiempo, se consolidan mediante inyecciones de
mortero puzolánico para corregir su inestabilidad ante diversas solicitaciones.

Estado actual de la rehabilitación

En la actualidad los proyectos de rehabilitación se plantean principalmente


bajo dos escenarios: cuando existen mecanismos de falla que evidencian

La tecnología en la rehabilitación de inmuebles patrimoniales 141


riesgo de colapso o cuando existe la necesidad de adecuar una construcción
patrimonial a un nuevo uso. En cualquier circunstancia es importante carac-
terizar el sistema de cimentación, entrepisos, estructura soportante y cubier-
ta, ya que cada uno, en el contexto evolutivo, tiene historia y contribuye de
manera importante al comportamiento del conjunto.
En el primer caso, la estructura suele estar en situación de riesgo por efectos
de diversos fenómenos ocurridos a través del tiempo. Respecto al segundo caso,
debido a que la experiencia en México inició en inmuebles públicos, resultaba
válido realizar proyectos de rehabilitación conservadores donde se preocupaban
por privilegiar la apariencia. Ahora que crece la intervención de inmuebles
particulares, las propuestas generales plantean conseguir mayor rentabilidad
adecuando la construcción existente a nuevos usos, con argumentos estéticos
que coinciden con el criterio moderno, el cual busca otorgarle otro significado
al inmueble.
Aunque las teorías para analizar la identidad de los espacios se alejan de
nuestro alcance cuando se plantea adecuar una construcción existente a un
nuevo uso, es importante establecer de manera sensata los límites que ésta pue-
de ofrecer, para no dañar la esencia del inmueble ni abusar de las tecnologías
que pueden brindar los nuevos materiales. Como expresión formal, antes se
diseñaban refuerzos ocultos y ahora podemos ver que se construyen estructuras
adosadas donde se sustituyen elementos con la misma apariencia original, y en
ocasiones se incorpora materiales ajenos para sustituciones aparentes.
No obstante, aun si se pretende hacer sustituciones aisladas se requiere
deducir con todo rigor la estereotomía de cada elemento. Asimismo, al con-
cebir el diseño de una alternativa de rehabilitación, es importante identifi-
car oportunamente las características que en ocasiones distinguen a algunas
propuestas, como detener temporalmente el problema o tratarla desde su
esencia.
Uno de los objetivos del presente artículo es ofrecer una síntesis sobre
diversas acciones que puedan contribuir a concebir la incidencia tecnológi-
ca aplicada en la reestructuración. También se busca contribuir e impulsar
la evolución de este campo profesional en México, donde la inclusión de
materiales prefabricados cada día se incrementa. Este entusiasmo conduce a
que ahora en los procesos constructivos exista un alto porcentaje de compo-
nentes semiterminados por instalar en el sitio y se visualice como un modo
de rehabilitación viable.
Como se puede inferir, en este oficio no se trata sólo de abundar en el
conocimiento abstracto o numérico, sino en una filosofía objetiva a partir de
la cual sea posible ejercitar un trabajo creativo. El reto consiste en contex-
tualizar elementos de diseño estructural y de construcción en el arte de la
arquitectura.

142 Colección Textos FA o Tecnología


Referencias

Arnal Simón, L. y M. Betancourt Suárez. Reglamento de construcciones para el


Distrito Federal. México: Trillas, 2005.
Guzmán Urbiola, X., A. Hernández Hernández e I. San Martín Córdova. Fernando
López Carmona. 50 años de enseñanza. México: unam, Facultad de Arquitec-
tura, 2010.
Hernández Hernández, A. "Propiedades geométricas y estructurales de las cons-
trucciones virreinales de mampostería". Tesis doctoral. Facultad de Arquitectu-
ra, unam, 2000.
Heyman, Jacques. Teoría, historia y restauración de estructuras de fábrica. Madrid:
cehop, 1995.
López Carmona, F. "Estudios de la condición actual de la Catedral Metropolitana".
Tesis doctoral. Facultad de Arquitectura, unam, 1992.
Meli Piralla, R. Ingeniería estructural de los edificios históricos. México: Fundación
ica, 1998.
Peschard, Eugenio. Resistencia de materiales. México: unam, Facultad de Arqui-
tectura, 1992.
San Martín Córdova I. y M. Cejudo Collera. Teoría e Historia de la Arquitectuta,
pensar, hacer y conservar la arquitectura. México: unam, Facultad de Arquitec-
tura, 2012.
Tello Peón, B. Compendio de avances de investigación de Jornadas de la ciaup
2009-2011. México: unam, Facultad de Arquitectura, 2012.

La tecnología en la rehabilitación de inmuebles patrimoniales 143


144 Colección Textos FA o Tecnología
Tectónica de placas y el Valle de México

Mario de Jesús Carmona y Pardo

De entre las diversas teorías acerca de la expansión del universo destacan dos
corrientes: la primera se originó con el planteamiento, entre 1927 y 1930,
del sacerdote Georges Lemaître. Propuso, sobre la base de la recesión de las
nebulosas espirales, que el universo se inició con la explosión de un átomo
primigenio, lo que más tarde se denominó Teoría del Big Bang. En 1929,
Edwin Hubble realizó observaciones que sirvieron de fundamento para com-
probar la teoría de Lemaître. Hubble probó que las nebulosas espirales son
galaxias y midió sus distancias observando las estrellas variables cefeidas en
galaxias distantes. Descubrió que las galaxias se alejan unas de otras a velo-
cidades (relativas a la Tierra) directamente proporcionales a su distancia. Este
hecho se conoce ahora como la Ley de Hubble.
La otra teoría se conoce como Big Crunch y es contraria a la anterior. Declara
que el universo se encuentra en un punto crítico, en el cual puede mantenerse
estable ad eternum; entre la comunidad científica esta teoría no es muy aceptada.
Con el paso de los años, las evidencias observacionales apoyaron la idea
de que el universo evolucionó a partir de un estado denso y caliente. Desde el
descubrimiento de la radiación de fondo de microondas, en 1965, ésta ha sido
considerada la mejor teoría para explicar el origen y evolución del cosmos.
A finales de los años noventa y principios del siglo xxi se lograron grandes
avances en la cosmología del Big Bang como resultado de importantes adelan-
tos en telescopía, en combinación con grandes cantidades de datos satelitales
de Cobe, el telescopio espacial Hubble y wmap (Wilkinson Microwave Aniso-
tropy Probe). Estos datos han permitido a los cosmólogos calcular muchos de
los parámetros del Big Bang hasta un nuevo nivel de precisión y han condu-
cido al descubrimiento inesperado de que la expansión del universo está en
aceleración.
El término “Big Bang” se utiliza tanto para referirse específicamente al
momento en el que se inició la expansión observable del universo (cuantifi-
cada en la Ley de Hubble), como, en un sentido más general, para referirse
al paradigma cosmológico que explica el origen y la evolución del mismo.

145
Según los científicos, hace unos 15 000 millones de años se produjo una
gran explosión, el Big Bang. La fuerza desencadenada expulsó la materia,
extraordinariamente densa, en todas direcciones, a una velocidad cercana a
la de la luz. Con el tiempo, y a medida que se alejaban del centro y reducían
su velocidad, masas de esta materia quedaron próximas unas de otras, lo cual
permitió formar, más tarde, las galaxias. No se sabe qué ocurrió en el lugar
que ahora ocupamos durante los primeros 10 000 millones de años, si hubo
otros soles, otros planetas, un espacio vacío o, simplemente, nada. Hacia la
mitad de este periodo, o quizás antes, debió de formarse una galaxia. Cerca
del límite de esta galaxia, que hoy conocemos como Vía Láctea, una porción
de materia se condensó en una nube más densa hace unos 5 000 millones de
años. Las fuerzas gravitatorias hicieron que la mayor parte de esta masa
formase una esfera central y a su alrededor quedasen girando masas mucho
más pequeñas. La masa central se convirtió en una esfera incandescente, una
estrella, nuestro Sol. Las pequeñas también se condensaron mientras describían
órbitas alrededor de él y terminaron por formar los planetas y algunos satélites.
Entre esos cuerpos, uno quedó a la distancia justa y con el tamaño adecuado
para mantener agua en estado líquido y retener una importante envoltura
gaseosa. Obviamente, este planeta es la Tierra, el planeta azul.
Después de un periodo inicial, cuando la Tierra era una masa incandescente,
las capas exteriores empezaron a solidificarse, pero el calor procedente del
interior las fundía de nuevo. Finalmente, la temperatura bajó lo suficiente
como para permitir la formación de una corteza estable.
Al principio el planeta no tenía atmósfera y recibía muchos impactos de
meteoritos. La actividad volcánica era intensa; grandes masas de lava salían al
exterior y aumentaban el espesor de la corteza al enfriarse y solidificarse. Asi-
mismo, los volcanes generaron una gran cantidad de gases que acabaron por
formar una capa sobre la corteza. Su composición era muy distinta de la actual,
pero fue la primera capa protectora y permitió la aparición del agua líquida.
En las erupciones, a partir del oxígeno y del hidrógeno, se generaba vapor
de agua, que al ascender por la atmósfera se condensó y originó las primeras
lluvias. Al cabo del tiempo, con la corteza más fría, el agua de las precipita-
ciones se pudo mantener líquida en las zonas más profundas de la corteza;
se formaron mares y océanos, es decir, la hidrósfera.
Desde su formación y hasta la actualidad, la Tierra ha experimentado mu-
chos cambios. Las primeras etapas, desde que empezó la solidificación de la
masa incandescente hasta la aparición de una corteza permanente, no dejaron
evidencia de su paso, ya que las rocas que se iban generando se volvían a
fundir o simplemente eran sepultadas por una nueva erupción.
La superficie terrestre o corteza está dividida en varias placas tectónicas
que se han deslizado sobre el magma durante periodos de millones de años.
En tanto, la superficie está cubierta por continentes e islas; éstos poseen varios
lagos, ríos y otras fuentes de agua que, junto con los océanos de agua salada
(que representan cerca del 71% de la superficie del planeta) constituyen
la hidrósfera.

146 Colección Textos FA o Tecnología


División geológica del tiempo de la Tierra
Edad en años Eon Era Período Época
4 500 000 000 Precámbrico Azoica
3 800 000 000 Arcaica
2 500 000 000 Proterozoica
560 000 000 Fanerozoico Paleozoica Cámbrico
510 000 000 Ordovícico
438 000 000 Silúrico
408 000 000 Devónico
360 000 000 Carbonífero
286 000 000 Pérmico
248 000 000 Mesozoica Triásico
213 000 000 Jurásico
144 000 000 Cretáceo
35 000 000 Cenozoica Terciaria Paleoceno
56 500 000 Eoceno
35 400 000 Oligoceno
24 000 000 Mioceno
5 200 000 Plioceno
1 600 000 Cuaternaria Pleistoceno
10000 Holoceno

La corteza está separada del manto por una capa conocida como Discon-
tinuidad de Mohorovičić, cuyo espesor varía desde un promedio de 6 km en
los océanos hasta entre 30 y 50 km en los continentes. La corteza y la parte su-
perior fría y rígida del manto superior se conocen comúnmente como la litós-
fera, de la cual están compuestas las placas tectónicas. Debajo de la litósfera
se encuentra la astenosfera, una capa de relativamente baja viscosidad sobre
la que flota la anterior. Dentro del manto, entre los 410 y 660 km bajo la
superficie, se producen importantes cambios en la estructura cristalina.
La mecánicamente rígida capa externa de la Tierra, la litósfera, está frag-
mentada en piezas llamadas placas tectónicas. Estas placas son elementos
sólidos que se mueven interrelacionados unos con otros según uno de estos tres
patrones: bordes convergentes, en el que dos placas se aproximan; bordes diver-
gentes, en el que dos placas se separan; bordes transformantes, en el que dos
placas se deslizan lateralmente entre sí. A lo largo de estos bordes de placas se
producen los terremotos, la actividad volcánica y la formación de montañas y
de fosas oceánicas. Las placas tectónicas se deslizan sobre la parte superior de
la astenosfera, la sólida pero viscosa sección superior del manto, que puede fluir
y moverse junto con las placas, y cuyo movimiento está fuertemente asociado
a los patrones de convección dentro del manto terrestre.
A medida que las placas tectónicas migran a través del planeta, el fondo
oceánico experimenta subducción bajo los bordes de las placas en los límites
convergentes. Al mismo tiempo, el afloramiento de material del manto en los
límites divergentes crea las dorsales oceánicas. La combinación de estos procesos
recicla continuamente la corteza oceánica nuevamente en el manto. Las siete
placas más grandes son la pacífica, norteamericana, euroasiática, africana,
antártica, indoaustraliana y sudamericana. Otras placas notables son la Placa
índica, la Placa arábiga, la Placa del Caribe, la Placa de Nazca en la costa
occidental de América del Sur y la Placa escocesa en el sur del océano Atlántico.

Tectónica de placas y el Valle de México 147


La placa de Australia se fusionó con la placa de la India y disgregarse hasta alcanzar la situación actual de los conti-
hace cerca de 50 y 55 millones de años. Las placas con nentes, en un proceso que aún continúa. Este nombre apa-
movimiento más rápido son las placas oceánicas, como la rentemente fue usado por primera vez por Wegener, quien
Placa de Cocos, que avanza a una velocidad de 75 mm/ también fue el principal autor de la teoría de la deriva con-
año, y la Placa del Pacífico que se mueve a 52-69 mm/ tinental, en 1912. Procede del prefijo griego pan que signi-
año. En el otro extremo, la placa con movimiento más lento fica “todo” y de la palabra en griego gea, “suelo” o “tierra”.
es la eurasiática, que avanza a una velocidad típica de Se estima que Pangea se formó a finales del período Car-
aproximadamente 21 mm/año. bonífero, cuando los continentes, que antes estaban sepa-
La corteza continental se compone de material de menor rados, se unieron formando un súper continente rodeado
densidad, como las rocas ígneas, el granito y la andesita. por un único mar, Panthalassa. Entre finales del Triásico y
Menos común es el basalto, una densa roca volcánica que es el comienzos del Jurásico, Pangea habría comenzado a frag-
componente principal de los fondos oceánicos. Las rocas mentarse, como producto de los cambios y movimientos
sedimentarias se forman por la acumulación de sedimentos de las placas tectónicas. Dicho proceso condujo primero
compactados. Casi el 75% de la superficie continental está a la formación de dos continentes, Gondwana al Oeste
cubierta por rocas sedimentarias, a pesar de que éstas sólo y Laurasia al Sur, separados por un mar circumecuatorial
forman un 5% de la corteza. El tercer material rocoso más (mar de Tetis), y posteriormente a los continentes que co-
abundante en la Tierra son las rocas metamórficas, creadas a nocemos hoy. La deriva continental, el proceso geológico
partir de la transformación de tipos de roca ya existentes de desplazamiento de las masas continentales, se mantiene
mediante altas presiones, altas temperaturas o ambas. Los mi- en marcha al día de hoy.
nerales de silicato más abundantes en la superficie de la Al hacer un corte transversal de la esfera terrestre po-
Tierra incluyen el cuarzo, los feldespatos, el anfíbol, la mica, dríamos tener idea clara de cómo está conformada funda-
el piroxeno y el olivino. Los minerales de carbonato más mentalmente por diferentes núcleos y distintos mantos, así
comunes son la calcita (que se encuentra en piedra caliza) como del movimiento de las placas tectónicas, que en algu-
y la dolomita. nos casos chocan y subducen y en otros se separan, ya sea
La pedosfera es la capa más externa de la Tierra. Está com- por alejamiento o deslizamiento entre ellas. En este corte,
puesta de tierra y sujeta a los procesos de formación del además de identificar las características del corazón de la
suelo; existe en el encuentro entre la litósfera, la atmósfera, esfera terrestre, apreciaríamos los fenómenos en el nivel de
la hidrósfera y la biósfera. La elevación de la superficie te- la corteza, tales como choques de placas con subducción
rrestre varía entre el punto más bajo de -418 m en el Mar entre ellas, los cuales forman cordilleras montañosas.
Muerto, a una altitud máxima, estimada en 2005, de 8 848 m El objetivo de esta primera parte es aproximarse a la
en la cima del monte Everest. república mexicana para comprender los fenómenos físi-
Mediante algunas técnicas, como el paleomagnetis- cos que afectan al subsuelo, sobre el cual depositaremos
mo y la geofísica nuclear, así como pruebas de geografía, y empotraremos las cimentaciones de los edificios. Des-
geología, paleontología y paleo climatología, el meteoró- pués analizaremos el panorama general de la república y
logo alemán Alfred Wegener ha podido comprobar que en finalmente el del Valle de México.
su origen la masa de tierra o corteza fue una sola. A través Como se puede apreciar en el mapa de la imagen 3,
del tiempo se habrían ido separando las diferentes placas, nuestra república colinda hacia el sur y al poniente con
lo cual se conoce como la Pangea. la Trinchera del Pacífico, con las placas de Cocosy de Ri-
Pangea fue el súper continente que existió al final de la vera, mismas que chocan con la Placa norteamericana;
era Paleozoica y comienzos de la Mesozoica. Agrupaba asimismo, tiene una fractura fundamental sobre la cual
la mayor parte de las tierras emergidas del planeta. Se for- está el Eje Volcánico Transversal.
mó por el movimiento de las placas tectónicas, de modo El corte esquemático de la imagen 6 muestra detallada-
que hace unos 300 millones de años se unieron todos los mente el fenómeno de la subducción. Se aprecia cómo la
continentes anteriores en uno solo; posteriormente, hace corteza oceánica, a partir de la fosa, inicia su descenso por
unos 200 millones de años, Pangea comenzó a fracturarse debajo de la placa continental y, por ende, de la litósfera.

148 Colección Textos FA o Tecnología


A Núcleo interno Masa sólida compuesta por hierro y níquel, de más de 4 000 km
de diámetro y con una temperatura superior a 4 500º
B Núcleo externo Hierro y níquel fundidos a una temperatura cercana a los
4 000º
C Manto inferior Con cerca de 3 000 km de espesor y temperatura aproximada
de 3 000º, con mayor rigidex que el manto superior, compacta-
do por la presión
D Manto superior Es una capa de aproximadamente 650 km de grueso a una tem-
peratura de aproximadamente 1 500º

E Corteza

F Subducción entre la Pla-


ca de Nazca y la Placa
sudamericana
G Separación de placas
formando la Dorsal del
Atlántico
H Separación de placas
formando el Mar Rojo
I Choque de placas for-
mando el Himalaya
J Dorsal del Pacífico
01. Corte esquemático de las capas
internas de la tierra

Corte del interior de la Tierra

02. En este esquema se representa un


corte trasversal de la mitad de la esfera
terrestre. En él se puede apreciar con
claridad el nombre de cada una de las capas
y su profundidad en kilómetros, así como
las diferentes densidades, temperaturas y
presiones en cada una de ellas.

Tectónica de placas y el Valle de México 149


03-04.Planisferios que marcan las placas tectónicas con sus tendencias de
movimiento y las fosas oceánicas o trincheras

150 Colección Textos FA o Tecnología


06

07

05. Afectación de la república mexicana por placas,


trincheras, fracturamientos y volcanes

La fosa también se conoce como trinchera. En el caso de


nuestro país corre paralela a las costas de Chiapas, Oaxaca,
Guerrero, Michoacán, Jalisco y Nayarit.
Entre los principales volcanes que se ubican en el fractura- 08

miento fundamental están los siguientes: Sangangüey, Tequi-


la, Nevado de Colima, volcán de Colima, Tancítaro, Paricutín,
Jorullo, San Andrés, Nevado de Toluca, Xitle, Ajusco, Iztac-
cíhuatl, Popocatépetl, La Malinche, Cofre de Perote, Pico de
Orizaba y San Martín.
La Ciudad de México se encuentra ubicada sobre dicho
fracturamiento, entre volcanes, en una cuenca endorreica (sin
salida natural de agua al mar), pues una gran parte de su ex-
tensión está sobre lo que fue el Lago de Texcoco.
Los cerros que forman la cuenca endorreica del Valle de 09
México y que aparecen en el plano de la lámina correspon-
diente se muestran en la página 154.
06. Fosas oceánicas. Esquema que indica la
El suelo y el subsuelo de la Ciudad de México constitu- subducción entre placas tectónicas
yen un muestrario amplio de características y problemas a 07. Bordes convergentes, como ocurre en la Trinchera
del Pacífico
los que el arquitecto se va a enfrentar a lo largo de su carrera 08. Borde divergentes, como ocurre en la Dorsal del
profesional. Considero que podrá aplicar los conocimientos Océano Atlántico
09. Borde transformantes, como ocurre en la Falla de
adquiridos en el estudio del suelo de la ciudad en cualquier San Andrés
región del país.

Tectónica de placas y el Valle de México 151


A continuación nos acercaremos a la cuenca del Valle tener clara la ubicación del terreno sobre el que se va
de México, en particular al Distrito Federal, con el fin de a trabajar. Se debe conocer la ciudad tanto en términos
conocer las características y los problemas que presenta generales como la zona específica donde se realizará
el subsuelo de la Ciudad de México. el proyecto y la construcción correspondiente. A conti-
nuación analizaremos los aspectos fundamentales para
El suelo de la Ciudad de México el proyecto y para la construcción de la subestructura.
El Reglamento de Construcciones para el Distrito Fe-
El comportamiento del subsuelo del Valle de México se deral (rcdf) en su capítulo viii se refiere al Diseño de Ci-
debe fundamentalmente a su origen geológico. Durante mentaciones:
siglos se formó la cuenca del Valle de México sobre varios
pliegues geológicos, como los oaxaqueños del Mioceno Artículo 169. Toda edificación se soportará por medio
inferior y los Laramídicos del Paleoceno inferior, mismos de una cimentación que cumpla con los requisitos re-
que han sido seccionados, por decirlo de alguna manera, lativos al diseño y construcción que se establecen en
por varias fallas: las de Mixhuca, Peñón, Tizayuca, Jalapa, las Normas. Las edificaciones no podrán en ningún
Tepetlaastoc, Xochihuacan, en sentido oriente-poniente; caso desplantarse sobre tierra vegetal, suelos o relle-
las fallas de Santa Catarina, Xochitepec, Tlalli-Pelado, en nos sueltos o desechos. Solo será aceptable cimentar
sentido norte-sur. Sobre todas ellas se han volcado vulcani- sobre terreno natural firme o rellenos artificiales que no
tas, aglomerados, depósitos aluviales y depósitos lacustres. incluyan materiales degradables y hayan sido adecua-
Al sur, la sierra de El Chichinautzin cerró la cuenca en el damente compactados.
período Cuaternario con una cortina repleta de lavas basál- Artículo 170. Para fines de este Título, el Distrito Federal
ticas. Ésta le agregó otras características al suelo de la zona, se divide en tres zonas con las siguientes características
que a su vez permitió la formación del Lago de Texcoco. generales:
Estamos sobre un cúmulo de formaciones volcánicas de Zona i. Lomas, formadas por rocas o suelos gene-
más de 2 000 metros de espesor, el cual está depositado ralmente firmes que fueron depositados fuera del
sobre rocas sedimentarias. ambiente lacustre, pero en los que pueden existir,
Por otra parte, la corteza fracturada que está sobre el superficialmente o intercalados, depósitos arenosos
eje volcánico está sometida a compresiones y a tensiones, en estado suelto o cohesivos relativamente blandos.
unas desde la Fosa del Pacífico; otras, por calentamiento En esta zona es frecuente la presencia de oquedades
y ascenso de magmas, lo que produce sismos en forma en rocas y de cavernas y túneles excavados en suelo
continua. Si a este conjunto de problemas se le agrega la para explotar minas de arena.
extracción de agua, en la cuenca, a los acuíferos superior, Zona ii. Transición, en la que los depósitos profundos
intermedio e inferior –que produce hundimientos regio- se encuentran a 20 m de profundidad o menos; y
nales, sin duda alguna–, podremos percatarnos de que que está constituida predominantemente por estra-
nuestro suelo es particularmente difícil. tos arenosos o limoarenosos intercalados con capas
Una gran parte de la superficie que ocupan el Distri- de arcilla lacustre; el espesor de éstas es variable en-
to Federal y algunas áreas conurbadas se encuentra sobre tre decenas de centímetros y pocos metros.
el desaparecido cuerpo de agua conocido como Lago de Zona iii. Lacustre, integrada por potentes depósitos
Texcoco, el cual estaba formado de norte a sur por los de arcilla altamente compresible, separados por ca-
lagos de Zumpango, Xaltocan, Texcoco, Xochimilco y pas arenosas con contenido diverso de limo o arci-
Chalco. lla. Estas capas arenosas son de consistencia firme
Como se puede apreciar con el análisis de los pla- a muy dura y de espesores variables de centímetros
nos siguientes, el hecho de que una parte importante a varios metros. Los depósitos lacustres suelen estar
de la superficie urbanizada del Distrito Federal se en- cubiertos superficialmente por suelos aluviales y re-
cuentre sobre lo que fue el Lago de Texcoco tiene una llenos artificiales; el espesor de este conjunto puede
consecuencia directa sobre los tipos de suelo que ca- ser superior a 50 m.
racterizan a la ciudad. Para los efectos de la compo- La zona a la que corresponda un terreno se determina-
sición, es decir para el planteamiento del concepto ar- rá a partir de las investigaciones que se realicen en el
quitectónico y del sistema estructural, es indispensable subsuelo del predio objeto de estudio, tal como lo esta-

152 Colección Textos FA o Tecnología


Valle de México y sus cerros

1. Monte Alto 11. Ocopiaxco 21. Tres Cumbres 31. Peñón del Rosario 41. Aranda

2. La Viga 12. Chichinautzin 22. Papayo 32. Tepozán 42. Xalpan

3. Puerto Malinche 13. Cuautzin 23. Telapon 33. Tecoloc 43.San Sebastián

4. Juan Ángel 14. Tlaloc 24. Caracol 34. Caleras 44. Montero

5. La Campana 15. Tlicuayo 25. Portezuelos 35. San Onofre 45. Sincoque

6. Tepalcates 16. Juchitipec 26. Sanctorum 36. Tecajete 46. Peña Blanca

7. Muñeco 17. Xoyacan 27. San Nicolás 37. Tepoxco 47. Caparrosa

8. Picacho 18. Popocatépetl 28. Xipetzingo 38. Ahuizote

9. Ajusco 19. Iztaccíhuatl 29. Puerto San Simón 39. Ventanas

10. Pelado 20. La viga 30. Tezoyo 40. Niño

blecen las Normas mediante estudios de mecánica de suelos, y en caso de


edificaciones ligeras o medianas, cuyas características se definan en dichas
Normas, podrá determinarse la zona mediante el mapa incluído en las mis-
mas, si el predio está dentro de la porción zonificada; los predios ubicados
a menos de 200 m de las fronteras entre dos de las zonas descritas antes se
supondrán como ubicados en la más desfavorable.
Artículo 171. La investigación del subsuelo del sitio mediante la exploración
de campo y pruebas de laboratorio debe ser suficiente para definir de mane-
ra confiable los parámetros de diseño de la cimentación, la variación de los
mismos en la planta del predio y los procedimientos de edificación.
En la zona i se averiguará si existen materiales sueltos superficiales, grietas,
oquedades naturales o galerías de minas, y en caso afirmativo se obtendrá
la información requerida para su apropiado tratamiento.

Tectónica de placas y el Valle de México 153


11. El Lago de Texcoco en las delegaciones del
Distrito Federal

10. Plano del Lago de Texcoco en 1519

12. El Distrito Federal, sus vialidades


principales y el Lago de Texcoco

154 Colección Textos FA o Tecnología


Y en las zonas ii y iii […] se averiguará […] la existencia de restos arqueo-
lógicos, cimentaciones antiguas, grietas, variaciones fuertes de estratigra-
fía, historia de carga del predio o cualquier otro factor que pueda originar
asentamientos diferenciales de importancia, de modo que todo ello pueda
tomarse en cuenta en el diseño.
Artículo 172. Deben investigarse el tipo y las condiciones de cimentación
de las edificaciones colindantes en materia de estabilidad, hundimientos,
emersiones, agrietamientos del suelo y desplomes, y tomarse en cuenta en
el diseño y construcción de la cimentación en proyecto. Asímismo, se in-
vestigarán la localización y características de obras subterráneas cercanas
existentes o proyectadas, [Metro] drenaje y otros servicios con el objetivo
de verificar que la edificación no cause daños a tales instalaciones ni sea
afectada por ellas.1

En las Normas Técnicas Complementarias al rcdf, referentes al Diseño y


Construcción de Cimentaciones, su capítulo segundo se refiere a la investi-
gación del subsuelo. En el inciso 2.2 se hace mención a las exploraciones de
campo. A la letra dice:

En la zona i se averiguará si existen en ubicaciones de interés materiales


sueltos […], grietas, oquedades naturales o galerías de minas y, en caso afir-
mativo, se obtendrá la información requerida para su apropiado tratamiento.
En la porción de la zona i no cubierta por derrames basálticos, los estu-
dios se iniciarán con un reconocimiento detallado del lugar donde se localice
el predio, así como de las barrancas, cañadas o cortes cercanos al mismo,
para investigar la existencia de bocas de antiguas minas o de capas de arena,
grava y materiales pumíticos que hubieran podido ser objeto de explotación
subterránea en el pasado. El reconocimiento deberá complementarse con los
datos que proporcionen los habitantes del lugar y la observación del compor-
tamiento del terreno y de las construcciones existentes así como el análisis
de fotografías aéreas antiguas. Se determinará si el predio fue usado en el pa-
sado como depósito de deshechos o fue nivelado con rellenos colocados sin
compactación. Se prestará asimismo atención a la posibilidad de que el suelo
natural esté constituido por depósitos de arena en estado suelto o por mate-
riales finos cuya estructura sea inestable en presencia de agua o bajo carga.
En los suelos firmes se buscarán evidencias de grietas limpias o rellenas con
material de baja resistencia, que pudieran dar lugar a inestabilidad del sue-
lo de cimentación, principalmente en laderas abruptas. Se prestará tambien
atención a la posibilidad de erosión diferencial en taludes o cortes, debida a
variaciones del grado de cementación de los materiales que lo constituyen.
En las zonas de derrames basálticos, además de localizar los materiales vol-
cánicos sueltos y las grietas superficiales que suelen estar asociados a estas
formaciones, se buscarán evidencias de oquedades subterráneas dentro de
la lava que pudieran afectar la estabilidad de las cimentaciones. Se tomará
en cuenta que, en ciertas áreas del Distrito Federal, los derrames basálticos 1 gdf, Reglamento de Construcción del
Distrito Federal, cap. viii, 2004.
yacen sobre materiales arcillosos compresibles.

Tectónica de placas y el Valle de México 155


En las zonas ii y iii, se averiguará la historia de carga del predio y la exis-
tencia de cimentaciones antiguas, restos arqueológicos, rellenos superficiales
recientes o antiguos, variaciones fuertes de estratigrafía, suelos inestables o
colapsables, o cualquier otro factor que pueda originar asentamientos diferen-
ciales de importancia, de modo que todo ello pueda tomarse en cuenta en el
diseño. Asimismo, en estas zonas se deberá investigar la existencia de grietas
en el terreno, prinicpalmente en las áreas de transición abrupta entre las zonas
i y iii ,y que se pueden apreciar en el mapa [correspondiente].
En la zona ii, la exploración del subsuelo se planeará tomando en cuenta
que suele haber irregularidades en el contacto entre las diversas formacio-
nes, así como mantos de agua colgada y variaciones importantes en el espe-
sor de los suelos compresibles.2

Por otra parte, las mismas normas del rcdf establecen requisitos mínimos
para la investigación del subsuelo. Para ello define las construcciones en el
capítulo 2.3 como sigue:

Construcciones ligeras o medianas, de poca extensión y con excavaciones


someras. Son de esta categoría las edificaciones que cumplen con los si-
guientes tres requisitos:

Peso unitario medio de la w ≤ 4t/m2, (40kPa)


estructura:

Perímetro de la construcción: P≤ 80 m en las Zonas I y II; o P≤120m


en la Zona III

Profundidad de desplante: DIJ 2.50 m

Zona I
1. Detección por procedimientos directos, eventualmente apoyados
en métodos indirectos, de rellenos sueltos, galerías de minas, grie-
tas y otras irregularidades.
2. Pozos a cielo abierto para determinar la estratigrafía y propiedades
de los materiales y definir la profundidad del desplante.
3. En caso de considerarse en el diseño del cimiento un incremento
neto de presión mayor a 8 t/m2 (80 kPa), el valor recomendado
deberá justificarse a partir de los resultados de las pruebas de labo-
ratorio o de campo realizadas.

Zona II
1. Inspección superficial detallada despúes de la limpieza y despal-
2 gdf, Normas Técnicas Complementarias
para Diseño y Construcción de me del predio para la detección de rellenos sueltos y grietas.
Cimentaciones, § 2.2. Reconocimiento
del sitio, 2004. 2. Pozos a cielo abierto para determinar la estratigrafía y propiedades
de los materiales y definir la profundidad del desplante.

156 Colección Textos FA o Tecnología


Zona I, de lomerío; zona II, de transición; zona III, lacustre

13. Plano publicado en el rcdf


para identificar las zonas en que
se divide el Distrito Federal para la
localización inmediata de la ubicación
del terreno sobre el cual se realizará
una construcción determinada.
Aunque no sea objeto de este texto,
conviene recordar que el rcdf, en lo
relativo a la zona lacustre, establece la
diferenciación en zona IIIa, IIIb, IIIc y
IIId, clasificación que hace referencia a
los espectros para diseño sísmico

3. En caso de considerarse en el diseño del cimiento un incremento


neto de presión mayor a 5 t/m2 (50kPa), bajo zapatas o de 2 t/m2 (20
kPa), bajo losa general, el valor recomendado deberá justificarse a
partir de los resultados de las pruebas de laboratorio o de campo
realizadas.

Zona III
1. Inspección superficial detallada después de la limpieza y despal-
me del predio para detección de rellenos sueltos y grietas.
2. Pozos a cielo abierto complementados con exploraciones más
profundas, por ejemplo con posteadora, para determinar la estrati-
grafía y propiedades de los materiales y definir la profundidad de

Tectónica de placas y el Valle de México 157


3. En caso de considerarse en el diseño del cimien- trados y su contenido de agua. Además, se
to un incremento neto de presión mayor de 4 t/ obtendrán muestras inalteradas de los estratos
m2 (40 kPa), bajo zapatas o de 1.5 t/m2 (15kPa) que puedan afectar el comportamiento de la
bajo losa general, el valor recomendado deberá cimentación. Los sondeos deberán realizarse
justificarse a partir de los resultados de las prue- en número suficiente para verificar si el sub-
bas de laboratorio o de campo realizadas. suelo del predio es uniforme o definir sus va-
riaciones dentro del área estudiada.
Zona I 3. En caso de cimentaciones profundas, investiga-
1. Detección, por procedimientos directos, even- ción de la tendencia de los movimientos del sub-
tualmente apoyados en métodos indirectos, de suelo debidos a consolidación regional y deter-
rellenos sueltos, galerías de minas, grietas y minación de las condiciones de presión del agua
otras oquedades. en el subsuelo, incluyendo detección de mantos
Construcciones pesadas, extensas o con excavaciones pro- acuíferos colgados.
fundas. Son de esta categoría las edificaciones que cum-
plan con los siguientes tres requisitos: Zona III
1. Inspección superficial detallada después de
Peso unitario medio de la w> 4t/m2, (40kPa) limpieza y despalme del medio para detec-
estructura: ción de rellenos sueltos y grietas.
P>80 m en las zonas I y II; o 2. Sondeos para determinar la estratigrafía y pro-
Perímetro de la construcción:
P>120 m en la Zona III
piedades índice y mecánicas de los materiales
Profundidad de desplante: Dƒ> 2.50 m y definir la profundidad de desplante median-
te muestreo y/o pruebas de campo. En por lo
menos uno de los sondeos se obtendrá un per-
2. Sondeos o pozos profundos a cielo abierto fil estratigráfico continuo con la clasificación
para determinar la estratigrafía y propiedades de los materiales encontrados y su contenido
de los materiales y definir la profundidad de de agua. Además, se obtendrán muestra inal-
desplante. La profundidad de la exploración teradas de los estratos que puedan afectar el
con respecto al nivel de desplante será al me- comportamiento de la cimentación. Los son-
nos igual al ancho en planta del elemento de deos deberán realizarse en número suficiente
cimentación, pero deberá abarcar todos los para verificar si el subsuelo del predio es uni-
estratos sueltos o compresibles que puedan forme o definir sus variaciones dentro del área
afectar el comportamiento de la cimentación estudiada.
del edificio. 3. En caso de cimentaciones profundas, investi-
gación de la tendencia de los movimientos del
Zona II subsuelo debidos a consolidación regional y
1. Inspección superficial detallada después de la determinación de las condiciones de presíon
limpieza y despalme del predio para la detec- de agua en el subsuelo, incluyendo detección
ción de rellenos sueltos y grietas. de mantos acuíferos colgados.
2. Sondeos para determinar la estratigrafía y
propiedades índice y mecánicas de los mate-
riales del subsuelo y definir la profundidad de
desplante mediante muestreo y/o pruebas de
campo. En por lo menos uno de los sondeos,
se obtendrá un perfil estratigráfico continuo
con la clasificación de los materiales encon-

158 Colección Textos FA o Tecnología


Referencias

Brown, W. K. y K. H. Wohletz, "SFT and the Earth’s Tectonic Plates" [documento


digital]. Los Álamos National Laboratory, 2005.
De Pater, Imke y Jack J. Lissauer, Planetary Sciences. 2ª edición. Londres: Cambrid-
ge University Press, 2010.
fao Staff. fao Production Yearbook 1994. Volumen 48. Roma: Food and Agricultu-
re Organization of the United Nations, 1995.
Gobiernon del Distrito Federal. Reglamento de Construcciones para el Distrito
Federal, primera reimpresión, 2006.
. Normas Técnicas Complementarias para el dise-
ño y Construcción de Cimentaciones, 2004.
Jessey, David. "Weathering and Sedimentary Rocks". Geological Sciences. Pági-
na de Cal Poly Pomona. Disponible en http:/geology.csupomona.edu/drjessey/
class/Gsc101/Weathering.html [revisada en noviembre de 2014].
Kring, David A. Terrestrial Impact Cratering and Its Environmental Effects. Lunar
and Planetary Laboratory. [s.f.c.]. Disponible en http://www.lpi.usra.edu/scien-
ce/kring/epo_web/impact_cratering/intro/
Santoyo-Villa, E., E. Ovando-Shelley, F. Mooser y E. León. Síntesis Geotécnica de
la Cuenca del Valle de México: México, fgc Ediciones, 2005.
Staff. "Layers of the Earth". Volcano World. [s.f.c.]. Disponible en http://volcano.
oregonstate.edu/vwdocs/vwlessons/plate_tectonics/part1.html
Sverdrup, H. U y Richard H. Fleming. "The oceans, their physics, chemistry, and
general biology". Scripps Institution of Oceanography Archives. Disponible en
http://repositories.cdlib.org/sio/arch/oceans/ [
Wenk, Hans-Rudolf y Andreĭ Bulakh Glebovich. Minerals: their constitution and
origin. Londres: Cambridge University Press, 2004. [s.f.c.].

Tectónica de placas y el Valle de México 159


160 Colección Textos FA o Tecnología
Edificios altos en suelos blandos de la
Ciudad de México
Perla Rafael Santa Ana Lozada
Lucia Gabriela Santa Ana Lozada

Introducción

Un edificio alto es aquella construcción cuya silueta sobresale en altura de


los edificios de su entorno; generalmente la proporción de su altura es mayor
que su área en planta. No existe una definición generalizada para el término,
por lo que conforme a la región del mundo donde se encuentre se definirá el
número de niveles y altura para considerarlo como un edificio alto.
En la Ciudad de México los edificios altos comenzaron a desarrollarse a partir
de 1929 con edificaciones que tenían en promedio trece niveles, tendencia
que continuó a lo largo del siglo xx. Desde el año 2000 comienza a generarse
una carrera por construir el edificio más alto de la ciudad, el cual, hasta el
2014, será el futuro edificio Mitika del arquitecto Cesar Pelli, con 65 niveles.
Si comparamos la escala de los edificios mexicanos contra los edificios
altos que hay en el mundo, los edificios construidos en México resultan rela-
tivamente bajos; algunos ejemplos con los que podríamos compararlos son: el
Empire State Building, en Nueva York, con 102 niveles, construido en 1931; el
edificio Taipei 101, ubicado en Taiwán y construido en 2004, con 101 pisos;
o el edificio Burj Khalifa en los Emiratos Árabes, construido en 2010, con 163
pisos.1 Sin embargo, el construir edificios altos en la Ciudad de México cons-
tituye un reto al tener que desarrollar y ejecutar este tipo de proyectos en las
condiciones generales de nuestro país: crisis económicas, falta de tecnología
01. Estructura del edificio de la Lotería
propia, condiciones sísmicas, reglamentaciones urbanas.
Nacional
Con base en lo anterior y por la falta de estudios sobre la materia, el ob- Fotógrafo: Manuel Ramos.
jetivo de este análisis es definir las características de los edificios altos en la Fuente: cortesía Archivo Fotográfico
Manuel Ramos
Ciudad de México y su evolución a lo largo de los siglos xx y xxi. Para ello se
han analizado nueve edificaciones consideradas como edificios altos en su
época, todas ellas desplantadas sobre terreno lacustre o arcilloso con nivel
elevado de aguas freático (suelos blandos), ubicados en la Ciudad de México.
1 El Empire State Building fue diseñado por
De los edificios seleccionados se expondrán sus generalidades, la solución Shreve, Lam and Harmon; el Taipei 101
por C.Y. Lee & Partners; el Burj Khalifa es
de su sistema constructivo-estructural y las aportaciones que cada uno ha ido diseño de Adrian Smith, Wiliiam F. Baker,
generando en el mundo de la arquitectura, ingeniería y construcción a nivel George J. Efstahiou y Marshall Strabala.
nacional e internacional.

161
Antecedentes

El desarrollo de un edificio alto en cualquier región del mundo depende funda-


mentalmente de cuatro factores: economía, tecnología, normatividades locales y
política. En el caso de México, la economía ha sido un factor preponderante en
la génesis de este tipo de proyectos, dada su preponderancia por el uso comercial
y de oficinas. Esto ha cambiado recientemente al abarcar el género habitacional.
Para entender el inicio de la construcción de este tipo de edificaciones en
el país es necesario observar la historia de los edificios altos en Estados Uni-
dos, donde se comienza a importar el material, la tecnología y los sistemas
constructivos para realizar este tipo de edificaciones en México.
El primer edificio alto (Home Insurance Building, Chicago, diez niveles)
fue construido en 1884 por el Ing. William Le Baron Jenney. En la realización
de este edificio se utilizó estructura metálica para los elementos estructura-
les portantes, lo que permitió la creación de mayores claros al interior de la
construcción y aumentó los niveles de iluminación natural en los espacios,
de forma que se volvieron espacios más rentables. A partir de 1899 comenzó
en Estados Unidos la carrera por construir el edificio más alto utilizando mar-
cos rígidos metálicos como el sistema constructivo tipo. Esta competencia se
desarrolló principalmente en Nueva York; comenzó con el Park Row Buil-
ding, de 30 niveles, y culminó con el Empire State (1931) de 102 niveles.2
Como se mencionó anteriormente, estas nuevas edificaciones, además de
utilizar estructura metálica como elementos portantes –la cual se cubría con
muros y acabados pétreos para ocultar la estructura completamente– gene-
raron la necesidad de estudiar el comportamiento estructural de este nue-
vo sistema. Para ello, desarrollaron nuevos métodos de análisis estructural
y consideraron los efectos naturales que impactan primordialmente a estas
edificaciones: efectos sísmicos y eólicos.

Normatividad

Otro aspecto importante que favoreció la creación de este tipo de edificaciones


en México fue la evolución del Reglamento de Construcción para el Distrito
Federal. A medida que se modificó de acuerdo a la evolución tecnológica del
país y al mayor entendimiento sobre el comportamiento de las edificaciones
desplantadas en los distintos tipos de terreno de la ciudad, permitió desarrollar
construcciones de mayor altura con un nivel de seguridad estructural adecuado.
A continuación se enlista una cronología de dichos reglamentos.
2 Mir M. Ali y Kyoung Sun Moon,
"Structural Developments in Tall Buildings: 1. Reglamento de Construcción en el df (rcdf),3 1920
Current Trends and future prospects",
Architectural Science Review 50:3 (2007), Este reglamento de construcción establece por primera vez en la Ciudad
pp. 205-23. de México los parámetros generales que debían considerarse en el diseño
3 Reglamento de Construcción de la Ciudad
de México, México, Diario Oficial del y construcción de una edificación: cargas vivas y muertas, consideración
Gobierno Constitucional de los Estados de efectos sísmicos, lineamientos arquitectónicos, etc. Sin embargo, los
Unidos Mexicanos, 1920.
parámetros considerados eran ambiguos ya que aún no se conocía el

162 Colección Textos FA o Tecnología


comportamiento de los edificios en la ciudad ante efectos sísmicos o
según el número de niveles.

2. Reglamento de Construcción y de los Servicios Públicos en el df,4 1942


Tomando como referencia las normatividades de ciudades como San Fran-
cisco y en general del estado de California en los Estados Unidos (zonas
altamente sísmicas, como lo es la Ciudad de México), este reglamento
es el primero en considerar el efecto del sismo sobre las edificaciones a
través de los valores de aceleración con que se mueve el terreno al produ-
cirse un sismo promedio, llamados coeficientes sísmicos. Los valores
de estos coeficientes se establecían entre 0.10 g y 0.01 g dependiendo
del uso de la edificación; no se consideraba aún los efectos por el tipo de
terreno donde se desplantaba la construcción ni por el número de niveles
que podía tener el edificio. Asimismo, establecía que las edificaciones no
podían exceder de una altura máxima de 35 m, parámetro limitante para
la construcción de edificios altos.

3. Normas de Emergencia, 1957


Posterior a la modificación de 1952 del reglamento de construcción se
presentaron las Normas de Emergencia, mismas que surgirían como pro-
ducto del sismo de 1957. En éstas, los valores de los coeficientes sísmicos
fueron incrementados; su magnitud dependería de las características del
terreno de desplante, para ello se establecieron tres distintos tipos de sue-
lo. Se permitía construir edificios con una altura mayor a 45 m pero para
autorizarlos se debía presentar un análisis sísmico dinámico5, el cual era
aún desconocido por gran parte de los arquitectos e ingenieros de la época.
Finalmente, por primera vez se permitía el empleo de criterios de diseño
límite y se reconocía que la estructura se podía comportar plásticamente.
Esto cambió la filosofía del diseño estructural para obtener secciones más
esbeltas usando, como materiales, concreto y acero estructural, lo cual
apoyaba la realización de edificios esbeltos y altos.

4. Nuevo Reglamento de Construcciones para el df,6 1966


Esta normatividad reduce el tipo de terreno a dos; se publica el método
estático simplificado para edificios con una altura máxima de 7 m; es- 4 Reglamento de Construcción y Servicios
tablece valores de coeficiente sísmico entre 0.15 g y 0.06 g. El diseño Públicos en el df, México, Diario Oficial
del Gobierno Constitucional de los
sísmico para edificios altos debía considerar realizar un análisis dinámico Estados Unidos Mexicanos, 1942, sección
modal espectral, el cual ya era conocido por la comunidad de ingenieros segunda, tomo cxxxiii, número 20.
5 El análisis dinámico consiste en estudiar
de la ciudad y permitía predecir el comportamiento de una edificación, la deformación de la estructura en
función de sus características, como:
sin importar el número de niveles, en un sismo promedio. Esto generó la masa, rigidez y número de niveles, bajo
confianza de aventurarse en proyectos de mayor altura y complejidad. la aceleración de un sismo promedio.
6 Nuevo Reglamento de Construcciones
para el Distrito Federal, México,
Departamento del Distrito Federal, 1966.
5. Reglamento de Construcciones para el df,7 1976 7 rcdf, México, Departamento del Distrito
Se establecen nuevamente tres distintos tipos de suelos en la Ciudad de Federal, 1976.
México; se crean las Normas Técnicas Complementarias de Diseño, que

Edificios altos en suelos blandos de la Ciudad de México 163


02-03. Estructura de la Torre
Latinoamericana. presenta para cada material sus lineamientos de diseño bajo cualquier
Fotógrafo: Juan Guzmán. tipo de esfuerzo; aparecen las expresiones para determinar las deforma-
Fuente: cortesía Archivo Fotográfico del
Instituto de Investigaciones Estéticas ciones esperadas de un edificio debido a fuerzas sísmicas. Se introducen
de la unam tres métodos de análisis sísmico: análisis sísmicos estático, simplificado y
dinámico, cuyo empleo estaba en función de la altura de la edificación.
Los edificios altos contaban con un rango de seguridad mayor, ya que se
analizaba su comportamiento bajo condiciones de carga sísmica, obteni-
das tanto por análisis estático como por análisis dinámico. Se considera-
ban efectos de torsión, así como el detalle por realizar en los elementos
estructurales.

6. Reglamento de Construcciones para el df,8 1987


El sismo de 1985 fue muy instructivo respecto al comportamiento de las
edificaciones: efectos del sismo debido a la altura del edificio, distribución
de peso en planta y elevación, características del terreno donde desplan-
taban, comportamiento global de los edificios. Todo este aprendizaje fue
plasmado en el nuevo reglamento de construcción, con lo que quedó al
nivel de las mejores normatividades del mundo. Las aceleraciones sísmicas
de diseño aumentaron hasta 0.4 g en suelos blandos o lacustres; se observó
que las construcciones altas debían cuidar que su periodo fundamental no
coincidiera con el periodo del terreno de desplante; se consideró que po-
dían existir distintos modos de vibración que afectaban el comportamiento
de una edificación alta y que no sólo es el primer modo de vibración el que
rige el diseño del edificio. Dado que el nivel de deformaciones producidas
en las estructuras genera concentración de fuerza y, por consiguiente, daño,
dichas deformaciones debían ser limitadas, sobre todo en edificios altos.

7. Reglamento de Construcciones para el df,9 1993 y 2004


Este último reglamento es el que se encuentra vigente. En cuanto a los dis-
tintos tipos de terreno en la Ciudad de México, la zona lacustre o de suelos
blandos se subdivide en cuatro subregiones y varía el valor del coeficiente
sísmico en cada una de ellas. Las normas técnicas han incorporando nuevas
tecnologías (como amortiguadores), materiales (concretos de alta resistencia)
o soluciones constructivas estructurales (megacolumnas, macromarcos) y
han dado los parámetros para su uso y consideración en el análisis de las
edificaciones. Al diseñar edificaciones altas con estas normas se permite
al diseñador estar abierto a todas las distintas soluciones constructivas em-
pleadas en el mundo para construir edificios altos e incorporarlas, ya que
los métodos de análisis presentados admiten cualquier solución, siempre
y cuando se conozcan los fundamentos de dichos métodos.

8 rcdf, México, Gaceta Oficial del


A través de esta normatividad el diseño de los edificios altos en México
Departamento del Distrito Federal, 1987. se fue modificando. Para ilustrar estos cambios se han seleccionado nueve
9 rcdf, México, Gobierno del Distrito
Federal, 2004, no. 8-ter. casos de estudio, mismos que ejemplifican en su diseño y construcción las
condicionantes impuestas por esta reglamentación.

164 Colección Textos FA o Tecnología


02 03

Casos de estudio truir el primer edificio que puede ser catalogado como
alto en la Ciudad de México, el cual se encuentra ubica-
Las edificaciones seleccionadas se presentan en orden cro- do sobre Av. Juárez. Fue diseñado conforme a la estética
nológico y se analizan a través de los siguientes factores: del estilo art decó, contó con una altura total de 55 m y
solución estructural, relación con la normatividad –en al- trece niveles; fue el edificio de mayor altura del país al
gunos casos– y la evolución tecnológica que implican en término de su construcción, en 1932. El uso original del
el diseño de edificios altos en el país. edificio consistió en albergar las oficinas de la Compañía
de Seguros La Nacional.
I. Edificio La Nacional
Solución estructural
Durante varios siglos, la Ciudad de México contó con palacios Cimentación
y edificios de entre cuatro y cinco niveles de altura como Debido al tipo de terreno blando donde se encuentra el edi-
máximo. Muchos de estos edificios ya empleaban como ficio (centro de la Ciudad de México), así como la altura
estructura portante elementos de fierro fundido (importa- que presentaba, su cimentación se resolvió mediante el uso
do de Europa), piedra y mampostería, así como concreto de una losa de cimentación, la cual recibe la descarga de
reforzado; ejemplo de ello son el Palacio de Bellas Artes las columnas del edificio. Para asegurar su estabilidad ante
(1904-1934) y el Edificio de Correos (1901), ambos con una fuerzas laterales producidas por el sismo se colocaron, an-
altura equivalente a cinco pisos. clados a la losa, pilotes de punta con una profundidad de
En el año de 1929 el Arq. Ortiz Monasterio, el Ing. Ber- empotramiento de 55 m, los cuales llegaban hasta el estrato
nardo Calderón y el Arq. Luis Ávila comenzaron a cons- resistente. Adicional a los pilotes de punta, dado que esta

Edificios altos en suelos blandos de la Ciudad de México 165


solución de cimentación era innovadora en la Ciudad de México (cimentación
mixta) y el rcdf de 1920 no mencionaba nada al respecto, se colocaron adicio-
nalmente pilas cortas en la periferia, de forma que se lograra dar mayor estabili-
dad a este nuevo edificio alto y evitar que se volteara ante un sismo.

Superestructura
El sistema estructural de este edificio está formado por marcos rígidos metá-
licos en ambas direcciones. El sistema fue importado enteramente de Estados
Unidos, tanto su solución, –estructura metálica– como la solución arquitec-
tónica, mediante la cual la estructura metálica fue recubierta de muros de
concreto secundarios como fachada. Éstos trabajan sólo soportándose a sí
mismos y empleando muros divisorios por la parte interior del edificio.

04. Estructura del edificio de la


Lotería Nacional. Fotógrafo: Manuel
Ramos. Fuente: cortesía Archivo
Fotográfico Manuel Ramos
04

166 Colección Textos FA o Tecnología


Evolución tecnológica
A pesar de que esta edificación fue construida bajo una normatividad que no
contemplaba tan detalladamente el comportamiento sísmico esperado de la
edificación, la solución generada y construida fue tan adecuada que el edificio
sigue en pie y en uso hoy en día. A partir del ejemplo de este edificio, las cons-
trucciones similares posteriores continuaron utilizando acero estructural como
material de los elementos portantes; así, este sistema constructivo se transformó
en algo común en la Ciudad de México.

II. Edificio de la Lotería Nacional, “El Moro”


05

La construcción de esta edificación inició en 1933 y concluyó en 1946. El edi-


ficio está constituido por 20 niveles más tres sótanos y tiene una altura total de
107 m. El nombre de “El Moro” le fue dado por los mismos empleados de la
lotería, debido a la similitud que presenta con algunas construcciones moriscas.
Se localiza sobre la avenida Paseo de la Reforma.
Debido a la normatividad vigente de la época, la cual indicaba que sólo se
podía construir edificios de 35 m de altura como máximo, fue necesario que,
por orden del presidente de la república, Lázaro Cárdenas, se aprobara una
altura mayor para esta edificación con un estudio previo del comportamiento
y diseño sísmico del edificio.10

Solución estructural
Cimentación
El suelo donde se encuentra este edificio es de tipo arcilloso y tiene un nivel
freático alto, lo que provoca que cualquier excavación realizada en el terreno
produzca abundamiento del mismo suelo. El Ing. Jose Antonio Cuevas, diseña-
dor estructural de esta edificación, generó un nuevo sistema de cimentación, al
cual llamó sistema de flotación elástica, para aminorar los problemas construc-
tivos que generaba este tipo de terreno; esta nueva aportación en el mundo de
la ingeniería es el precursor de los sistemas ahora conocidos como cimentación
flotada o cajón de cimentación. Con base en este cajón de cimentación se ge-
neraron tres sótanos abajo del nivel de calle, de forma que el peso del volumen
que forma al cajón lastrara al edificio para no sufrir volteo ante fuerzas sísmicas.
Debido a que no había nada escrito sobre esta nueva propuesta, se tuvo
que recurrir a pruebas de carga durante la construcción para poder determi-
nar si cumpliría con la seguridad estructural requerida. Para asegurar la esta-
bilidad del edificio se decidió colocar adicionalmente 180 pilas de concreto
debajo del cajón de cimentación, hasta llegar a una profundidad de 55 m
para anclarse en terreno firme.

Superestructura 10 Lotería Nacional para la Asistencia


La estructuración de este edificio es semejante a la realizada para el edificio Pública, "Historia", lotenal, http://www1.
lotenal.gob.mx/es/historia [consultado el
de La Nacional. Está formada por marcos rígidos metálicos construidos con 6 de agosto de 2013].
trabes sección tipo I para claros menores a seis metros y armaduras para claros

Edificios altos en suelos blandos de la Ciudad de México 167


mayores a ocho metros. El sistema de piso se solucionó median-
te una losa de concreto reforzado apoyada sobre las armaduras
y trabes antes mencionadas. El edificio fue recubierto con ele-
mentos de concreto reforzado, mismos que cubren la estructura
metálica y que sólo se cargan a ellos mismos.

Evolución tecnológica
Este edificio superó el número de niveles construibles permi-
tidos bajo la normatividad correspondiente (rcdf, 1942), pero
gracias a su diseño y a la serie de pruebas de carga a las que
fue sometido durante su construcción, sigue hasta nuestros días
en pie y funcionando estructuralmente de forma adecuada.
Con este edificio la ingeniería mexicana comenzaba a desa-
rrollar soluciones de cimentación para suelos blandos y solu-
ciones constructivas que posteriormente serían publicadas y
empleadas en otros países.

III. Torre Latinoamericana

Éste edificio inicia su construcción en 1948 y la concluye en


1956, fecha desde la que se ha constituido en un ícono de la
Ciudad de México y de la arquitectura mexicana, pues fue el
primer edificio reconocido como alto a nivel mundial. Desplan-
tado en el centro histórico de la ciudad, está conformado por
43 pisos, los cuales corresponden a una altura total de 140 m,
lo que lo hace parte importante del perfil urbano de la ciudad.
Corte longitudinal
de la Torre de Nonoalco
(cotas en centímetros) Solución estructural
Cimentación
Ésta se encuentra resuelta mediante un cajón de cimentación
05. Corte esquemático del edificio de
Banobras de 13 m de profundidad y pilotes de punta apoyados en la
primera capa de arena compacta a 33 m de profundidad. Los
pilotes no se encuentran anclados directamente sobre la losa
fondo del cajón de cimentación, sino que pasan libremente
y permiten ajustar la altura de la edificación independien-
temente del terreno. El uso de pilotes de control representa
otra aportación mexicana al mundo de la construcción de
edificios altos en suelo blando.
El fundamento de trabajo de los pilotes de control consiste en
permitir el paso de los pilotes a través de la losa fondo del cajón
de cimentación, de forma que se liga a éste mediante marcos de
carga y se deja un espacio entre la cabeza del pilote y el marco;
en este espacio se coloca un material compresible para que se
pueda determinar la altura o nivel deseados para la estructura en

168 Colección Textos FA o Tecnología


relación al nivel de banqueta del lugar, permitiendo el sistema actualizar la altura
del edificio sin afectar la cimentación ni la superestructura.
Con base en la solución y resistencia del tipo de cimentación se determinó
el número de niveles con los que contaría esta torre: 43 pisos. Para ejecutar
la cimentación se siguió un procedimiento constructivo meticuloso y paula-
tino, ya que era uno de los primeros edificios que se excavaba sobre terreno
blando y se debía controlar el hundimiento de las edificaciones aledañas.

Superestructura
La estructura portante está formada por marcos rígidos metálicos y conexio-
nes remachadas. Asimismo, se emplearon por primera vez elementos que
generaban un comportamiento compuesto entre las trabes metálicas secun-
darias y el concreto que formaba la losa del sistema de piso; son los precur-
sores de los pernos de cortante11.
De acuerdo al rcdf de 1948, para diseñar este edificio por el método es-
tático se proponían valores de aceleración del terreno de 0.025 g distribui-
do de forma constante en la altura, sin embargo, gracias a la propuesta del
Dr. Leonardo Zeevaert, diseñador estructural del edificio, de obtener una mejor
respuesta de la torre ante un sismo, se decidió realizar un análisis dinámico,
poco empleado hasta el momento.
Para realizar el análisis sísmico dinámico de la torre, el Dr. Zeevaert con-
sultó al Dr. Nathan Newmark.12 Al realizar el diseño sísmico del edificio para
soportar un sismo de grado ocho en la escala Richter, el Dr. Zeevaert se per-
cató de que en la parte final de la torre (pisos del 28 al 43) las distorsiones del
edificio aumentaban con respecto a la de los primeros niveles, por lo que deci-
dió diseñar con aceleraciones sísmicas mayores en los entrepisos superiores
y menores en los inferiores. De esta forma demostró que la solución sísmica
propuesta por el reglamento de construcción correspondiente no era correcta
para este tipo de edificaciones.
Como resultado del análisis estructural se establecieron los siguientes requi-
sitos para un adecuado comportamiento sísmico de la torre: la estructura de-
bería ser flexible para permitir las deformaciones impuestas por un sismo sin
que sufriera daños la estructura portante; debían ser removidos todos los muros
11 Los pernos de cortante son elementos
divisorios de los ejes principales y no podían ligarse a la estructura principal; de fijación en la instalación de láminas
los muros perimetrales debían ser diseñados con materiales que permitieran de entrepiso metálico con una capa de
concreto superior o capa de compresión,
deformaciones considerables sin dañarse. A partir de tales preceptos se cons- los cuales generan la transmisión de
esfuerzos entre trabes y el concreto que
truyó el edificio, con lo cual consiguió un comportamiento adecuado ante los forma la losa; se obtiene un trabajo como
sismos de gran magnitud que ha sufrido la ciudad desde que fue construida. sección compuesta, es decir, trabajan el
acero de la trabe y el concreto de la losa.
12 Nathan Newmark, doctor en Ingeniería
Evolución tecnológica Estructural y Académico galardonado
en 1950 con la medalla Wason por
Al utilizar un método de diseño sísmico dinámico y el nuevo sistema de cimen- publicación Meritoria para el Instituto de
Concreto Americano; en 1968 recibió la
tación por pilotes de control, los doctores Zeevaert y Newmark se convirtieron Medalla Nacional de Ciencias en Estados
en pioneros en el campo del diseño de edificios altos en suelos blandos. Habían Unidos.

logrado obtener de forma analítica el comportamiento del edificio bajo un sismo

Edificios altos en suelos blandos de la Ciudad de México 169


Hotel México (World Trade Center)
(cotas en centímetros)

06. Corte del proyecto original del


Hotel de México
de gran magnitud y diseñar la estructura con la resistencia y ductilidad (nivel
de deformación) necesarias para soportar dichas excitaciones.
La estructura portante se fabricó en eu, en la fábrica Bethlehem Steel
Corp., donde se hizo notar que las columnas de la Torre Latinoamericana
presentaban dimensiones similares a las columnas empleadas para el Empire
State Building, el cual es dos veces más alto que esta torre.13 Por su parte, los
ingenieros mexicanos demostraron que el diseño era correcto ya que la es-
tructura debería tener esta dimensión como resultado de las fuerzas sísmicas
que podría sufrir la torre y la necesidad de limitar sus deformaciones.
Asimismo, con este edificio se comenzó a visualizar la importancia de la
posición y fijación de los elementos secundarios dentro del comportamiento
de la estructura principal bajo fuerzas sísmicas; se estableció la importancia
de desligar dichos elementos secundarios de la estructura principal, de forma
que pudieran desarrollar toda su resistencia y ductilidad máxima esperada,
punto posteriormente reflejado en los reglamentos de construcción del df

IV. Torre insignia o Torre de Banobras


13 Ernesto Zeevaert Wiechers, "La Torre
Latinoamericana", conferencia presentada
en la División de Estudios Superiores de Esta torre, ubicada en el conjunto Nonoalco en Tlatelolco, fue diseñada por
la Facultad de Ingeniería, unam, México, el Arq. Mario Pani; su construcción se inicia en el año de 1958 y concluye en
df, 1986.
1962. La Torre de Banobras cuenta con 25 pisos de oficinas y ocho niveles de
estacionamiento, con una altura total de 127 m. Fue el segundo edificio más

170 Colección Textos FA o Tecnología


alto de la Ciudad de México después de la Torre Latinoamericana. La
forma triangular que presenta el edificio le da su carácter icónico y sus
características principales.

Solución estructural
Cimentación
Debido al tipo de terreno arcilloso con alto nivel freático, la solución
empleada como cimentación fue similar a la utilizada en todo el complejo
de Tlatelolco: cajón de cimentación con una geometría particular en su
losa fondo. Esta losa tiene una geometría de bóveda invertida (llamada
cascarón de concreto invertido) para contrarrestar las flexiones impuestas
por el terreno a la losa. En la parte inferior de este cajón, para dar esta-
bilidad a la construcción, se emplearon pilotes de punta que llegan al
estrato resistente. Este sistema de cimentación fue innovador e ingenioso,
pues representó un ahorro en el costo general de la cimentación; lamen-
tablemente, en algunos edificios del complejo de Tlatelolco los cajones
se llenaron de agua y volvieron inestable la cimentación.

Superestructura
Al igual que la cimentación, el sistema estructural de la torre también
resultaba innovador para su época; se basa en muros de concreto refor-
zado de peralte variable (1 m de espesor en la base y hasta 30 cm en la
parte superior o punta del triángulo), inclinados, de forma que tocan sus
extremos en la parte superior del edificio y forman la geometría peculiar
de la torre. Sus entrepisos se encuentran resueltos mediante losas de
concreto reforzado.
Para permitir plantas libres en cada entrepiso se generó un núcleo
rígido de concreto central donde se encuentran los servicios; en sus
caras laterales los muros de concreto funcionan como soporte de las
trabes de cada entrepiso. Se construyó una malla o grid de concreto
reforzado en sus caras frontales, de forma que esta red también funcio- Elevación 1-1
naba como elemento portante bajando las cargas de los extremos de (cotas en centímetros)
los entrepisos hasta la cimentación.
07. Corte esquemático de la Torre
Evolución tecnológica ejecutiva de pemex
El concreto a partir de su invención continuó evolucionando; se co-
nocía cómo trabajaba, su resistencia aumentaba y su procedimiento
constructivo se perfeccionaba (cimbras, aditivos, etcétera), avances
que le permitirían ser utilizado en la construcción de edificios altos.
Sus soluciones, en cuanto a tipo de cimentación, estructuración ge-
neral y concepto arquitectónico son innovadoras e ingeniosas. La torre
fue el precursor de los sistemas estructurales llamados diagrid o mallas
estructurales en las fachadas de los edificios, los cuales sirven como
elementos portantes.

Edificios altos en suelos blandos de la Ciudad de México 171


Después del sismo de 1985 el edificio sufrió demasiados daños estructurales,
por lo que tuvieron que ser reforzados elementos portantes como trabes y co-
lumnas. Aun cuando el edificio fue pionero en la integración de diseño sísmico
de acuerdo al rcdf de 1952 y a las Normas Técnicas de Emergencia de 1957
y diseñado correctamente para soportar un sismo intenso, estos reglamentos
contemplaban aceleraciones sísmicas menores a las producidas por el sismo de
1985, motivo por el cual sufrió daños. Otra de las razones es que su geometría
y materiales lo hicieron un elemento rígido poco apto para deformarse.

V. Hotel de México o wtc México

La idea original consistía en la construcción de un complejo arquitectónico


con distintos espacios: una torre principal que funcionara como hotel, un
teatro llamado Polyforum, un centro comercial, una escuela de arte pública,
un mercado de artesanías, un teatro, jardines, un centro nocturno, un audito-
rio para ferias y convenciones y estacionamientos. El proyecto arquitectónico
original fue desarrollado por el Arq. Rossell de la Lama, Joaquín Alvarez Or-
doñez y Ramón Miquelajauregui.
La construcción del Hotel de México y el Polyforum inició en 1966, en un
predio localizado en la colonia Nápoles al sur del Distrito Federal. El proyec-
to original del hotel contaba con 47 pisos, ya con la corona, cuya altura total
era de 207 m. La obra negra se terminó en 1972, pero por falta de recursos la
edificación quedó abandonada hasta 1992, año en que se reanuda su cons-
trucción y se refuerza la estructura. Finalmente se inauguró como el World
Trade Center (wtc) México en 1994.

Solución estructural
Cimentación
Está formada por un cajón de cimentación, donde se alojan tres sótanos actual-
mente de estacionamiento, y 232 pilas de concreto, las cuales se desplantan a
una profundidad de 45 m sobre el estrato resistente. A diferencia de los casos
analizados, el tipo de terreno donde se encuentra desplantado el hotel presenta
mejores características de capacidad resistente, así como un índice menor de
deformaciones; sin embargo, por el nivel de carga y el contenido de arcillas del
suelo se puede considerar como un suelo blando de transición.

Superestructura
La estructura original de la edificación estaba constituida por columnas de
concreto reforzado con distintas geometrías y tamaños, dependiendo del nivel
donde se encontraran. Así, había columnas con geometría circular, hexagonal,
triangular, etcétera. Para dar apoyo al sistema de piso sin utilizar trabes se em-
pleó una propuesta innovadora llamada Tridilosa. Desgraciadamente, el pe-
ralte de este sistema resultaba demasiado peraltado para la altura de entrepiso
propuesta, por lo que la altura libre de algunos entrepisos no cumplía con las
alturas libres mínimas especificadas en el reglamento de construcción vigente.

172 Colección Textos FA o Tecnología


Para limitar los desplazamientos ante fuerzas sísmicas paralelos a la cara
esbelta de la edificación se construyeron muros de concreto reforzado en
todos los niveles.

Evolución tecnológica
Este nuevo sistema, Tridilosa, patentado por el Ing. Heberto Castillo, consta
de una armadura tridimensional con una capa de compresión de 5 cm de
espesor en la parte superior de la armadura, de manera que se evita la colo-
cación de trabes agilizando el procedimiento constructivo.
A pesar de que el edificio quedó en el olvido durante muchos años como
obra negra, presentó un comportamiento adecuado bajo el sismo de 1985.
Los daños sufridos fueron menores gracias a la falta de cargas vivas en el
edificio, dado que continuaba deshabitado. En 1992 la edificación fue anali-
zada y revisada; se determinó que debía ser reforzada para cumplimentar la
normatividad vigente.
La restructuración corrió a cargo del Arq. Bosco Gutiérrez Cortina y Gutsa
Construcciones. Consistió en reforzar la estructura existente mediante la colo-
cación de nuevas columnas al frente de las originales, con lo cual se amplió el
área resistente de la misma principalmente sobre el lado corto. Asimismo, se
agregó un mayor número de muros de concreto en los extremos cabeceros y se
reforzó la mayor parte de columnas ampliando su sección y colocando acero Corte general
(cotas en centímetros)
de refuerzo adicional y concreto.14

VI. Torre ejecutiva de Pemex 08. Corte general del edificio Torre Mayor

La Torre ejecutiva de Pemex localizada en Marina Nacional 238 en la colonia


Huasteca en la Ciudad de México fue diseñada como un edificio inteligente por
el Arq. Pedro Moctezuma Díaz Infante y estructuralmente por el Ing. Oscar De
Buen. Cuenta con 60 niveles, lo que da como resultado una altura de 214 m.
Su construcción se inició en 1976 y se terminó en 1982.15

Solución estructural
Cimentación
La cimentación está resuelta mediante un cajón de cimentación formado por
dos niveles subterráneos, utilizados como estacionamiento, así como 164 pi-
las de concreto reforzado que penetran 32 m hasta llegar al estrato resistente.

Superestructura 14 Guendulain Mendez Ingenieros, "Proyecto


La estructuración está conformada por marcos rígidos metálicos en ambas estructural WTC México", Revista de
Ingeniería Civil, núm. 299 (marzo, 1994)
direcciones, los cuales están compuestos por armaduras metálicas con un pp. 17-30.
15 Revista Obras Web, “La Torre de pemex, un
peralte aproximado de 2.5 m a cada tres o cuatro entrepisos, y de 1.5 m en complejo a prueba de fallas”, [actualizada
todos los demás niveles. Este cambio de peralte obedece a la búsqueda por en enero del 2013] http://www.obrasweb.
mx/construcción/2013/01/31/la-torre-
limitar las deformaciones laterales del edificio rigidizando cada cierto núme- de-pemex-un-gigante-a-prueba-de-fallas
[consultado el 20 de julio de 2013].
ro de niveles. Las columnas están constituidas por perfiles tipo I formados por
tres placas y secciones en caja.

Edificios altos en suelos blandos de la Ciudad de México 173


Para limitar las deformaciones laterales ante cargas sísmicas y de viento,
el edificio cuenta con contraventeos verticales en todas las caras del edificio,
los cuales abarcan cada siete niveles.

Evolución tecnológica
Este edificio fue pionero en la edificación inteligente; el sistema constructivo
empleado aplicó la tecnología que había en su momento para construir una
estructura segura y garantizar deformaciones mínimas ante sismos intensos,
para ello empleó contraventeos en todas sus caras, así como amortiguadores.
Para su construcción se utilizó un procedimiento constructivo de montaje,
el cual fue una innovación en el país. Éste consistió en izar cerchas formadas
09. Muro de concreto con alma de por grupos de cinco columnas perimetrales para abarcar tres niveles, las cua-
estructura metálica. Fuente: cortesía les estaban listas para conectarse con el nivel inferior y montar las armaduras
Ing. Martinez R.
de forma más rápida, con lo que se ahorró dinero y tiempo.

VII. Torre Mayor

Ubicada sobre Paseo de la Reforma, el edificio cuenta con 59 niveles inclu-


yendo cuatro de estacionamiento subterráneo; resulta una altura de 230.4 m
(225 m a partir del nivel de la banqueta). Su construcción se inició en 1999
y se terminó en 2003. El proyecto arquitectónico fue desarrollado por el
arquitecto canadiense Zeidler Roberts, mientras que el proyecto estructural
estuvo a cargo del Mtr. en Ing. Enrique Martínez Romero. Este edificio fue
diseñado para ser inteligente y ser operado con el mismo sistema empleado
en la torre de Pemex, conocido como bms (Building Managment System) el
cual controla todos los equipos e instalaciones. Esto le permitió obtener la
categoría leed Gold en el año 2013.

Solución estructural
Cimentación
Este edificio se encuentra desplantado en zona de transición y del lago del
Valle de México, sobre una manzana que anteriormente estaba ocupada por
construcciones existentes, las cuales fueron demolidas y cuyos cimientos
fueron extraídos del terreno. Debido a la profundidad de la excavación re-
querida para generar la cimentación de este edificio, se realizaron terraple-
nes cerca de los linderos del terreno para controlar el empuje del suelo de las
colindancias y se evitó así dañar las edificaciones aledañas.
En todo el perímetro del terreno se colaron muros de contención de con-
creto reforzado según el método Muro Milán (método basado en la extrac-
10. Elevación de la fachada frontal ción de material con una almeja, colocación de bentonita para no permitir el
de la Torre Mayor con indicación de derrumbe de las paredes hacia el interior, colocación del armado, colado y
amortiguadores y contraventeos
recuperación de la bentonita). Posterior al colado de muros perimetrales, se
colocaron troqueles para soportar la presión del terreno colindante.
11. Planta tipo, Torre Mayor. Niveles La cimentación de este edificio constó de 251 pilas que llegan hasta el
superiores estrato resistente (entre 38 a 50 m de profundidad) así como de un cajón de

174 Colección Textos FA o Tecnología


cimentación con cuatro niveles de estacionamiento de profun-
didad; la losa fondo de este cajón presentó un peralte máximo
de 2.50 m.

Superestructura
La estructura de los niveles subterráneos se encuentra formada
por columnas y muros compuestos, es decir, columnas metá-
licas que forman el alma de los muros de concreto reforzado,
así como por columnas mixtas compuestas por columnas de
concreto reforzado con alma formada por columnas metálicas
con pernos de cortante a todo lo largo del elemento, para lo-
grar una mayor adherencia entre el concreto y el acero estruc-
tural. Las trabes de entrepiso están formadas por perfiles tipo
ir conectados a las columnas metálicas que forman el alma de
la columna de concreto. El sistema de piso empleado mayori-
tariamente en todos los niveles del edificio fue losacero.

10

Planta tipo
11 (cotas en centímetros)

Edificios altos en suelos blandos de la Ciudad de México 175


LOSA DE LOSACERO ROMSA ó SIMILAR
SECCION 4, CAL. 20. CON CAPA DE
COMPRESION CONCRETO LIGERO

12

Planta tipo
12. Corte por fachada del bloque de
(cotas en centímetros)
cuatro niveles de la Torre Reforma, se
observa el tensor que da soporte a
los pisos intermedios
Para la superestructura se continuaron los muros mixtos que venían desde
la cimentación, así como columnas portantes mixtas, las cuales bordean el
perímetro de la edificación.

Evolución tecnológica
Debido a la esbeltez de la edificación, el reto era controlar las distorsiones
que pudiera sufrir el edificio ante cargas sísmicas o viento. Para ello se colo-
caron sistemas de contraventeos y amortiguadores empleando el sistema dls
(Damped Link Element in Coupled Truss O Wall System). Este método se basa
en la maximización del desempeño de los amortiguadores sin incrementar
la capacidad del disipador; se logra colocando amortiguadores entre los ele-
mentos desacoplados o secciones del edificio que no presenten contraventeos
en armaduras, muros o combinación, para tomar ventaja del movimiento
diferencial vertical que se produce en las columnas adyacentes, además de
la deformación diferencial horizontal (distorsión) de entrepisos.
Su logística constructiva resulta toda una innovación, ya que se realizaron
trabajos adicionales para poder ejecutar cada paso de la construcción del
edificio, como planeación de terracerías; tiempos de excavación y coloca-
ción de troqueles; ubicación de grúa y limitación de movimientos, etcétera.
El uso de secciones mixtas tanto en muros como en columnas lo hace no-
vedoso, pues en el mundo se emplean las columnas mixtas pero no es habi-
tual ver muros con alma de acero con las dimensiones que presenta esta torre.

176 Colección Textos FA o Tecnología


CAPA DE
COMPRESION
PLACAS DE
CONEXION CUERDA
SUPERIOR

TRABE DIAGONALES
METALICA
CUERDA
INFERIOR

VIII. Torre Reforma


TENSOR CAPA DE
PLACAS DE COMPRESION
CONEXION CUERDA
Esta obra, localizada a un lado de Torre Mayor sobre la avenida Paseo de la Re- SUPERIOR

forma, se compone de tres elementos: una casa del siglo xx, la cual se encuentra TRABE DIAGONALES

catalogada como Patrimonio Artístico de la Ciudad; un cuerpo pequeño llamado METALICA


CUERDA
INFERIOR

bloque de servicios; y el edifico principal, que será el objeto aquí analizado.


El proyecto arquitectónico fue desarrollado por lbr&A (Arq. Benjamín Romano TENSOR
CAPA DE
y asociados); se generó un proyecto con arquitectura sostenible, libertad de PLACAS DE
CONEXION
COMPRESION
CUERDA
SUPERIOR
espacios, manejo de la estructura conforme proyecto arquitectónico y empleo
de alta tecnología. El inicio de la construcción de esta edificación comenzó en TRABE DIAGONALES
METALICA

el año de 2008 y se tiene proyectado terminarla en el año 2015.


CUERDA
INFERIOR

Solución estructural TENSOR


CAPA DE
COMPRESION
Cimentación
PLACAS DE
CONEXION CUERDA
SUPERIOR

El edificio principal constará de 57 niveles, mismos que darán como resultado


una altura de 244 m. Para iniciar la construcción de la cimentación del cuerpo TRABE
METALICA
CUERDA
DIAGONALES

principal fue necesario reubicar la posición de la casa del siglo xx. Bajo ella se
INFERIOR

colocó una armadura metálica de 2 m de peralte aproximadamente y se reubicó


temporalmente en otra parte del predio para construir los muros de contención TENSOR
PLACAS DE
CAPA DE
COMPRESION
CONEXION CUERDA
perimetrales, acorde con el método Muro Milán. SUPERIOR

TRABE DIAGONALES
METALICA
CUERDA
INFERIOR

Corte
1 porFACHADA
CORTE POR fachada
(COTAS EN CENTIMETROS

(cotas en centímetros)

13

13. Ubicación de tensores principales


del muro de concreto a los niveles de
mayor área de la Torre Reforma

14. Planta estructural tipo de la Torre


Reforma, cuerpo principal

Elevación de la fachada principal


(cotas en centímetros)

14

Edificios altos en suelos blandos de la Ciudad de México 177


15. Variación de espesor de muros
principales de concreto reforzado,
Torre Reforma

La edificación cuenta con un cajón de cimentación formado por nueve


sótanos que funcionarán como estacionamientos y cisternas. En el caso de
esta edificación, la profundidad de desplante de los muros de contención
perimetrales fue de 33 m; es decir, se llegó hasta el estrato resistente, donde
se desplantará la losa fondo que formará el cajón de cimentación y la cual
presenta un peralte de 2.25 m. No se emplearon pilas o pilotes en la solución
de la cimentación.

Superestructura
La superestructura de la torre principal se encuentra resuelta mediante dos muros
de concreto dispuestos de forma paralela, unidos entre ellos en su interior para
dar rigidez y generar los núcleos de servicios. Estos muros darán soporte a cada

178 Colección Textos FA ⓞ Tecnología


una de las plantas, las cuales estarán libres de columnas, tan sólo soportadas en
los extremos mediante tensores. Éstos estarán anclados en los muros de concre-
to y se conectarán con la trabe de borde de los entrepisos con mayor área (los
cuales se encuentran cada cuatro niveles); para cargar los tres niveles inferiores,
se colocará un tensor ubicado en el paño inferior, donde se encuentran conec-
tados los tensores principales, el cual servirá como apoyo a los niveles inferiores.
Esta solución innovadora permitirá transmitir directamente el peso de los cuatro
niveles inferiores a los tensores principales.
Debido a que los muros son los elementos portantes principales, los cuales
están diseñados para disipar energía y tienen la capacidad resistente para sopor-
tar los tensores principales, presentan distintos espesores a lo largo del edificio.
El espesor de los muros de concreto en los niveles inferiores es de 1.22 m, mien-
tras que en la punta del edificio el espesor del muro es de 35 cm. El muro
también presenta ventanas para dar juego de luz al interior. Se ubican donde el
valor de los esfuerzos en el muro son los menores.
Los entrepisos están estructurados mediante trabes metálicas perimetrales
de sección en caja de aproximadamente 1.20 m de peralte; armaduras tridi-
mensionales en franjas (también llamadas arquitrabes) y trabes metálicas de
tipo ir. El tamaño del entrepiso varía conforme la altura, por lo que cada cuatro
niveles se presenta un entrepiso de mayor área.
La geometría que presenta el edificio responde al estudio de las corrientes
de viento, de forma que permita ventilación natural y oponer menor resisten-
cia al mismo. Para su diseño sísmico se cumplió con la normatividad del df
y al mismo tiempo se realizó diseño sísmico basado en desempeño, el cual
no se presenta explícitamente en el rcdf.

Evolución tecnológica
Para generar el cajón de cimentación de este edificio se siguió de forma in-
novadora en México el método constructivo conocido como top-down, cuya
metodología es la siguiente:

•• Colocar los muros de contención de concreto reforzados perimetrales


antes de realizar cualquier excavación
•• Se comienza la excavación sólo de la parte superficial, colocando tro-
queles que estabilicen las colindancias en la parte superior excavada
•• Se construye la losa tapa para generar un gran cajón de cimentación
con terreno en su interior; para poder seguir sacando el material se de-
jan ventanas en la losa superficial
•• Se va extrayendo el terreno de arriba hacia abajo; conforme se libera las
zonas se construyen las losas intermedias, anclándose al muro perimetral de
contención y dejando ventanas para continuar con la excavación de los niveles
inferiores. Se siguen colocando troqueles en los niveles recién construidos
•• Las paredes se refuerzan o generan un segundo muro de contención
interior de forma que se quiten todos los troqueles
•• Se cierran las ventanas y se tiene el cajón listo, con todos sus niveles

Edificios altos en suelos blandos de la Ciudad de México 179


75
8.
4
3690.4
887.3 2803.0
76
1.
1

C-1 C-1
866.8

C-2
C-1 C-2

C-2

C-2
3716.9

C-2
2850.2

C-2

C-1
C-2
C-2

C-1

.2
40
12

Planta tipo
PLANTA TIPO
(cotas en centímetros)
1 (COTAS EN CENTIMETROS)

16. Planta tipo edificio bbva con


megacolumnas en los extremos y
núcleo de servicios al centro

180 Colección Textos FA o Tecnología


Debido a la geometría asimétrica que presenta esta edificación, poco re-
comendada para zonas sísmicas de acuerdo a las normatividades actuales,
se emplea la oportunidad que el rcdf de 2004 da a los diseñadores para em-
plear otros métodos de análisis sísmico, si están fundamentados. Se realizó
un análisis sísmico basado en desempeño, el cual evalúa explícitamente el
comportamiento de un edificio bajo un sismo determinado; a partir de dicho
análisis se puede determinar el nivel de seguridad que guarda la edificación, así
como el costo de los posibles daños tanto en elementos portantes principales
como secundarios. Con base en este método, Ove-Arup, consultor estructural
del proyecto, aplicó en el análisis un sismo con una magnitud de 8.5 grados
en la escala Richter; disipó toda la energía a través de los muros de concreto sin
colocar amortiguadores, solución innovadora para este tipo de edificaciones en
zonas sísmicas.
Finalmente, se debe recalcar que este edificio alto es el primero en ser de-
sarrollado por una firma totalmente mexicana como lo es lbr&A, con el diseño
estructural de una firma mexicana y con la consultoría de una empresa extranjera.

IX. Torre BBVA Bancomer

Edificio diseñado por los arquitectos Legorreta+Legorreta y Richard Rogers y re-


suelto estructuralmente por el Ing. Oscar de Buen y la consultoría de Ove-Arup.16
Se localiza sobre la avenida Paseo de la Reforma en la Ciudad de México. El inicio
de construcción de la torre se remonta al año 2009 y se proyecta su fecha de fina-
lización para el año 2014. La altura de esta edificación será de 250 m, contando
con 50 entrepisos y dos niveles de estacionamiento subterráneo.

Solución estructural
Cimentación y superestructura
Su cimentación se presume que está conformada por un cajón de cimenta-
ción de tres niveles; la superestructura se encuentra formada por seis mega
columnas de sección compuesta, formadas por una caja metálica de 1.50 m
de peralte y concreto reforzado en su interior, dispuestas de forma perime-
tral. Estas columnas reciben trabes metálicas en caja, aproximadamente de
1 m de peralte que forma un marco rígido perimetral. Éste presenta en cada
una de sus caras contraventeos excéntricos verticales que funcionan como
disipadores de energía. Todos estos elementos forman un “cinturón” que se
repite a lo alto del edificio cada cuatro niveles para dar rigidez y eliminar las
deformaciones del edificio.
El edificio en su interior contará con un núcleo rígido de concreto en la
zona de servicios. Los entrepisos están formados por trabes alineadas en dia-
gonal que van de un lado al otro del cinturón principal, de forma que generan 16 Sitio web oficial de Richard Rogers,
"Torre BBVA-Bancomer; Mexico City",
una retícula de trabes tipo ir, de aproximadamente 40 cm de peralte que dan http://www.richardrogers.co.uk/Asp/
uploadedFiles/image/5670_BBVA/
soporte a los entrepisos. RSHP_A_JS_5670_l_e_GB.pdf [consultada
28 de julio de 2013].

Edificios altos en suelos blandos de la Ciudad de México 181


En algunos niveles se desplantan columnas o puntales sobre las trabes
principales y secundarias para dar apoyo a mezanines intermedios. El siste-
ma de piso está basado en el uso de losacero.

Evolución tecnológica
El uso de megacolumnas mixtas portantes es una solución que no se había
empleado antes en la Ciudad de México. Provocan que se tenga pocos ele-
mentos portantes y toda la energía sísmica se libere por medio de los contra-
venteos y amortiguadores que seguramente tendrá el edificio.
Su solución estructural y su procedimiento constructivo han hecho que
la construcción de este gran edificio se realice en mucho menos tiempo que
otros edificios vecinos.

Conclusiones

Los edificios altos en México han representado retos en cuanto a las solu-
ciones de cimentación para suelos blandos, así como para lograr generar
niveles adecuados de seguridad ante eventos sísmicos de gran magnitud.
Ideas innovadoras como los pilotes de control, el cajón de cimentación con
cascarones invertidos, el empleo de solución mixta (cajón más pilas o pilo-
tes), Tridilosa, retículas y arquitrabes han surgido por parte de ingenieros y
arquitectos mexicanos para tratar de alcanzar edificaciones de mayor altura.
Con base en las soluciones que cada edificación presenta, podemos con-
cluir que los aspectos importantes que debe considerar el diseño y la cons-
trucción de un edificio alto son:

1. Disposición de los elementos estructurales (columnas, muros, trabes,


etcétera) para asegurar transmitir las cargas a la cimentación y tener
elementos (contraventeos) que limiten las distorsiones del edificio
ante fuerzas accidentales, como un sismo o el viento.
2. Considerar el uso de amortiguadores para reducir las deformaciones y
por ende las fuerzas sísmicas sobre la estructura.
3. Los edificios altos no son exclusivos de sistemas con perfiles de acero.
Actualmente el concreto reforzado en países como Japón o Francia al-
canza esfuerzos resistentes a la compresión de hasta 1 200 kg/cm2 (en
México tenemos concretos de alta resistencia con f’c = 800 kg/cm2),
esto hace del concreto un material tan competente como el acero
para este tipo de edificios. Ejemplo de ello es el edificio Burj Khalifa
en los Emiratos Árabes y cuya altura alcanza los 829.8 m.
4. Debido al nivel de carga que recibe el suelo, si consideramos que
los suelos blandos presentan un alto nivel de compresibilidad y baja
capacidad del terreno, es más conveniente emplear soluciones mixtas
en la cimentación: cajón de cimentación con pilas o pilotes, según el
nivel de carga y el volteo del edificio ante sismos.

182 Colección Textos FA o Tecnología


5. Estamos aprendiendo que las edificaciones en zonas Referencias
sísmicas pueden dejar de ser simétricas o rectangu-
Ali, Mir M. y Kyoung, Sun Moon. "Structural Developments
lares, siempre y cuando se tenga el conocimiento
in Tall Buildings: Current Trends and future prospects". Ar-
de métodos de análisis más precisos para considerar chitectural Science Review, vol. 50 (3) (2007), pp. 205-23.
el nivel de daño que se obtendrá por su forma y así Gobierno del Distrito Federal. Reglamento de Construcción de
poder valorar el costo de daño. la Ciudad de México, 1920.
6. La demanda de mayores claros libres en las edifi- . Reglamento de Construcción y Servi-
cios públicos en el df, 1942.
caciones ha llevado a eliminar elementos verticales
. Nuevo reglamento de Construcciones
que sirven para tomar las fuerzas sísmicas. En con- para el df, 1966.
secuencia, se han comenzado a emplear con más . Reglamento de Construcciones para el
frecuencia las secciones mixtas, es decir, secciones df, 1987.
formadas por perfiles metálicos con pernos de cor- . Reglamento de Construcciones para el
df, 2004.
tante a lo largo de los mismos, forradas con acero
Loteria Nacional para la Asistencia Pública. Historia. http://
de refuerzo y concreto o, en su defecto, secciones
www1.lotenal.gob.mx/es/historia [Consultado el 6 de agos-
huecas de acero rellenas con concreto reforzado, to de 2013].
las cuales presentan una mayor capacidad de carga Mendez Ingenieros, Guenduláin. "Proyecto estructural wtc
y deformación. México". Revista de Ingeniería Civil 299 (marzo, 1994).
7. Otras soluciones para el diseño de edificios altos es Revista Obras Web. "La Torre de Pemex, un complejo a prueba
de fallas" [Actualizada] http://www.obrasweb.mx/construc-
emplear núcleos rígidos de concreto reforzado en
ción/2013/01/31/la-torre-de-pemex-un-gigante-a-prueba-
la parte central del proyecto y mallas o diagrid para de-fallas [Consultado el 20 de julio de 2013].
transmitir las cargas de los extremos hacia la cimen- Sitio web oficial de Richard Rogers. "Torre BBVA-Bancomer".
tación, como se inició en su uso con el edificio de http://www.richardrogers.co.uk/Asp/uploadedFiles/ima-
Banobras y en fechas recientes fue planteado por el ge/5670_BBVA/RSHP_A_JS_5670_l_e_GB.pdf [Consultada
Arq. Norman Foster como solución innovadora para 28 de julio de 2013].
Zeevaert Wiechers, Ernesto. "La Torre Latinoamericana". Con-
el edificio 30 St. Mary Axe (2001-2004), en Londres.
ferencia presentada en la División de Estudios Superiores
de la Facultad de Ingeniería, unam, México, 1986.
Conforme cada proyecto arquitectónico se torna más
ambicioso en cuanto a claros, alturas y geometrías, se crea
un reto por vencer, para lo cual se buscan y emplean nue-
vas tecnologías que puedan responder a dichas deman-
das. Los arquitectos e ingenieros mexicanos cuentan con
el ingenio y conocimiento para resolver cada problema
y generar soluciones innovadoras, como lo demuestran
los ejemplos analizados. En ellos la cimentación es un
reto y conocer el comportamiento del edificio se vuelve
una herramienta para realizar el diseño de la edificación,
tanto arquitectónica como estructuralmente, segura ante
cualquier evento sísmico. Finalmente, la solución del
procedimiento constructivo se vuelve un arte, pero todo
es posible lograrlo.

Edificios altos en suelos blandos de la Ciudad de México 183


184 Colección Textos FA o Tecnología
Los límites formales de la construcción
en la arquitectura contemporánea
Más alto, más largo, más ligero y más complejo

Marcos Javier Ontiveros Hernández

Introducción

Pensar que los límites de la arquitectura están en la imaginación puede re-


sultar válido desde el punto de vista artístico de la disciplina, sin embargo la
realidad tectónica1 de los objetos nos obliga a buscar las condiciones prácti-
cas necesarias para lograr su producción.
Cuando hablamos de la técnica aplicada a la industria de la construcción
es común considerar que los cambios se dan paulatinamente;2 sin embargo en
los últimos 50 años, a la par de la llamada revolución informática, hemos sido
testigos de cambios drásticos y paradigmáticos, lo cual no significa que se hayan
desvanecido los límites de lo realizable. Incluso, como se analizará en el presente
escrito, el hecho de que exista la tecnología para hacer posible construcciones
antes inimaginables no es suficiente argumento para llevarlas a cabo, pues es ne-
cesario evaluar variables técnicas económicas, ambientales y culturales, antes de 1 El término tectónico (como en la palabra
realizar una estructura que expanda los límites de lo construido. arquitectónico) nos remite a la producción
de los objetos. Etimológicamente deriva del
Considerando lo anterior, el presente texto hace una revisión, desde el punto vocablo griego téktòn: ‘obrero’, ‘carpintero’
y éste a su vez de tíkyø: ‘produzco’, ‘doy
de vista del diseño estructural, del estado del arte de la tecnología que actual- a luz’. J. Coromines, Breve diccionario
mente posibilita los edificios más altos, los puentes más largos, las cubiertas etimológico de la lengua castellana,
España, Gredos, 2008.
más ligeras y las envolventes de geometría más compleja, las cuales dan forma 2 Castro Villalba, refiriéndose a los pocos
a las impresionantes edificaciones que juegan con los límites de lo construible cambios significativos que han sufrido las
técnicas de construcción en 5 000 años,
y se convierten en íconos de nuestro tiempo. A lo largo del texto se ponderan escribe: “[…] si hemos de atender a un
desarrollo paulatino y progresivo a través
aspectos cualitativos y cuantitativos, expuestos por los diseñadores que hacen del tiempo de los requerimientos exigibles
posibles dichas edificaciones, recabados por el autor en congresos especiali- a una fábrica de piedra, hay que convenir
que a partir de Sakhara está casi todo
zados de la iass3 y durante la investigación académica que realiza dentro del dicho”; en Historia de la construcción
arquitectónica, España, Ediciones de la
Laboratorio de Estructuras de la Facultad de Arquitectura de la unam. upc, 1996.
Bajo la premisa de que la construcción de estructuras arquitectónicas du- 3 International Association for Shell and
Spatial Structures, iass por sus siglas,
rante la historia mantiene condicionantes de validez universal y responde a es una asociación con sede en Madrid
exigencias previas de carácter atemporal,4 el objetivo del presente texto es que reúne a investigadores, académicos,
diseñadores y constructores alrededor del
difundir las ideas que detrás de la tecnología hacen posible dichas construc- mundo enfocados en estructuras especiales
que van desde puentes, silos, arquitectura
ciones, con la finalidad de hacer una evaluación integral que trascienda el textil, cascarones y sistemas de forma libre.
mero aspecto formal y nos permita contrastar las razones prácticas con las 4 Castro Villalba, op. cit.

posibilidades y condiciones particulares de nuestro entorno.

185
Transgrediendo los límites: la búsqueda de lo superlativo

El origen del vocablo límite se remonta al latín limes, utilizado en la época


romana para definir las reducidas franjas de tierra fronteriza donde convivían
ciudadanos y bárbaros.5 En estas fronteras sucedían importantes fenómenos de
choque y mestizaje y, de manera análoga a lo que sucede con las fronteras de
lo edificable, no siempre de manera sencilla y sin tropiezos. Una de las tesis
más aceptadas en la evolución de los sistemas estructurales es la “superación
objetiva de los límites” lo cual indica que cada nueva obra busca superar lo
que la obra anterior demostró posible hasta que práctica o estructuralmente
resultó imposible; por lo que, con base en la experiencia acumulada, deben
surgir nuevos sistemas que satisfagan la perpetua demanda de lo superlativo.6
Sin ánimo reduccionista, es posible decir que superar los límites impuestos
por la naturaleza ha sido una condición intrínseca al ser humano que lo ha lle-
vado, desde el inicio, a modificar su entorno para asegurarse la supervivencia.
Según la filosofía de Ernst Kapp7 nos encontramos con un ser humano ligado de
forma esencial a la tecnología, con la cual trasciende su propia naturaleza,
de forma que es una constante en el desarrollo de su humanidad junto con el
deseo de superar sus logros materiales, aun cuando éstos no representen una
necesidad primaria; o en palabras de Ortega y Gasset, “el hombre es un animal
para el cual sólo lo superfluo es necesario”8.
Pero más allá de la razón filosófica, todo límite es un reto, una provoca-
ción para superarlo y transgredirlo, incluso hasta el exceso; provocación que
es el común denominador de la historia y del desarrollo de la técnica edifi-
catoria, y que nos ha llevado del metro y medio de claro libre de los dinteles
monolíticos de 20 toneladas en Stonehenge hasta la propuesta de librar 3 300
metros de claro con cuatro cables de 170 000 toneladas en el puente colgante
5 J. Coromines, op. cit.
6 Castro Villalba, op. cit. de Messina, Italia. Ambas estructuras en sus respectivos momentos históricos
7 Ernst Kapp, es autor del primer tratado
sistemático sobre la filosofía de la maravillaron y obligaron a preguntarnos cómo sería posible su realización.
tecnología, donde expone un ser humano Una pista para responderlo nos la proporciona Bill Addis cuando expone
esencialmente tecnológico que aplica una
tecnología artefactual como extensión de que más allá de la pericia mecánica y artefactual necesaria para consumar
sus órganos para forman herramientas la proeza de levantar grandes estructuras monolíticas, es necesario contar
con las cuales enfrenta su medio natural;
incluso la cultura resulta ser una forma con grandes habilidades de planificación y gestión para organizar, dirigir y
de tecnología, ya que mediante ella
extiende sus órganos intelectuales a fin de motivar a miles de trabajadores durante los largos periodos que duraban di-
dominar su ambiente. Ernst Kapp, “Líneas chas construcciones;9 esto obliga a planear y visualizar –diseñar– las grandes
fundamentales de una filosofía de la
técnica”, Teorema xvii (3) (1998). obras antes de iniciar su construcción. Addis lo resume como: “La historia
8 Ortega y Gasset, Meditación de la técnica
y otros ensayos, España, Revista de de la ingeniería en la construcción es la historia de cómo los ingenieros han
Occidente, 1977. planeado o diseñado sus edificios, y el progresivo aumento en la precisión
9 Bill Addis, 3000 Years of Desing Engineering
and Construction, Londres, Phaidon Press, con la que han aprendido a predecir el futuro”.
2007. El progresivo aumento del que nos habla Addis es eco de la cita “somos
10 “Decía Bernardo de Chartres que somos
como enanos en los hombros de gigantes. como enanos en los hombros de gigantes”10: existe un hilo conductor de cono-
Podemos ver más, y más lejos que ellos,
no por alguna distinción física nuestra, cimiento que engarza cada ampliación significativa de los límites edificables
sino porque somos levantados por su gran e integra habilidades, conocimientos, sistemas y artefactos para configurar la
altura”, Juan de Salisbury, discípulo de
Bernardo Chartres, Metalogicon (III, 4). tecnología de estas grandes obras. Sin embargo, atrás de todo ello siempre
existirá la voluntad del hombre que toma la decisión de llevarlas a cabo.

186 Colección Textos FA o Tecnología


William Baker, ingeniero responsable del diseño estructural de la Burj Khali-
fa, actualmente el edificio más alto en el mundo, escribió:

El hombre se esfuerza en ir más alto, los rascacielos son sueños coloreados en


acero y concreto, son testimonio del ingenio y desarrollo de las capacidades
técnicas usados en su diseño y ejecución. Más que ello, son actos de optimismo.
Los rascacielos suceden en lugares llenos de excitación, sueños y ambiciones.
Ellos representan el optimismo de la ciudad y el país en el que residen, y el
cliente, los arquitectos y los ingenieros que los diseñan sueñan con ellos.

Lo mismo podemos decir del resto de las estructuras que trascienden sus lími-
tes, muchas de la cuales supeditan a la voluntad del hombre los costos. Basta
recordar que el Partenón implico un egreso de 2 000 talentos, casi la cuarta
parte de los 9 000 en que consistía el total del tesoro de la Liga de las Ciuda-
des;11 sin embargo, hoy no sería posible concebir su inexistencia por cuestio-
nes económicas. Actualmente la condición humana no plantea un escenario
muy diferente; los pormenores de ello se abordarán en los siguientes párrafos.

Más alto

Generalidades
Cuando comparamos los míticos 60 m de altura de la Torre de Babel, (máximo
imaginable en la época de los zigurats de adobe y ladrillo) con los 828 m y
más de 160 niveles que ostenta la Burj Khalifa en Dubai, nos percatamos del
avance logrado en la conquista de la altura. Éste ha sido el mayor desarrollo de
las últimas fechas, ya que fue hasta la segunda mitad del siglo xix, con la llegada
del elevador moderno y el marco estructural, cuando literalmente se despega del
otrora límite de siete pisos en los que vivía el grueso de la población del mundo.
Consideramos que en tan sólo cien años los últimos rascacielos cuadru-
plicaron la altura del icónico edificio Singer de Nueva York (1908-1968), que
con 187 m y 47 niveles fue en su momento el edificio más alto del mundo.
A esta razón se podría pensar que en menos de dos generaciones será posible
alcanzar el utópico rascacielos de la milla imaginado por Frank Lloyd Wright
en 1965, sin embargo esta razón aplica directamente a las posibilidades de
la tecnología constructiva, la cual comentaremos a continuación.
11 Castro Villalba, op. cit.
12 Un estudio del Instituto de Brookling que
La concepción de un rascacielos pone a Nueva York, en el cuarto lugar de
Las sociedades tienen necesidad de edificios altos que se conviertan en sím- las ciudades norteamericanas con menor
huella de carbono (1.495 ton. per cápita),
bolos de las ciudades para atraer comercio, inversión y turismo; asimismo, prácticamente la mitad de la media
norteamericana, Los autores señalan que
en las grandes ciudades los rascacielos son una posible respuesta sustentable “la densidad residencial y la disponibilidad
a la demanda de espacios habitables12, ya que conservan la tierra y utilizan de transporte público son importantes
para entender las emisiones de carbono.”
eficientemente la infraestructura de transportes y servicios. A partir de estos Postulando que una densa urbanización es
positiva para lograr las metas ambientales.
hechos podemos explorar cómo estas estructuras son concebidas. Institute Brookings; “Shrinking the Carbon
En este contexto, William Baker dice que la condición inicial e indispensable Footprint of Metropolitan America.” 2008.
para el éxito de un proyecto de rascacielos es “la claridad de la visión” como

Los límites formales de la construcción en la arquitectura contemporánea 187


idea principal organizadora, la cual debe sustentarse en principios de ingeniería
que guíen el desarrollo del proyecto. Esto significa que debe definirse claramente
el sistema estructural y con ello los principios mecánicos bajo los cuales se
debe comportar. Asimismo, para ser fiel a esta visión, hay que tomar las demás
decisiones de diseño, incluso aquellas que ajusten la parte arquitectónica.
Para ejemplificar lo anterior recurriremos a las denominaciones de Fazlue
Khan con base en unas series emparejadas de adjetivos y sustantivos, las cua-
les describen los sistemas estructurales de los rascacielos modernos, idealiza-
dos como sistemas tubulares: Framed-Tube (marco-tubular), utilizado en las
malogradas Torres Gemelas de Nueva York; Braced-Tube (tubo-arriostrado),
ejemplificado por la torre del Banco de China en Hong Kong; Bundled-Tube
(tubo-empaquetado), como el caso de la Torre Willis (Sears) en Chicago; el
Super-Frame (super-marco) de la torre Yin Mao de China. Con esta manera
sucinta de describir los sistemas se refleja la pureza estructural a fin de no
dejar duda de qué es y cómo debe comportarse.
Aunque es aplicable a todas las obras arquitectónicas, en el caso de los
rascacielos resulta especialmente significativo que la falta de claridad en la
estructura repercuta en cascada en el proceso de diseño y en la construc-
ción. Esto no significa que sólo puedan diseñarse prismas sencillos. Aunque
la Burj Khalifa presenta un perfil apartemente complejo, se basa en una idea
simple (un núcleo resistente apuntalado) y, a pesar de que la figura del borde
de cada planta es muy variable, el núcleo se mantiene prácticamente sin
cambios en las 156 plantas. Esto permitió eficiencia y velocidad en la cons-
trucción, ya que las secciones atípicas hubieran podido quedarse unos pocos
niveles detrás sin afectar el calendario general.

Cómo se construyen los grandes rascacielos


Junto con la claridad de la visión, también es importante tener conceptos
claros de construcción. Nunca se debería proponer un sistema estructural sin
tener al menos una forma de llevarlo a cabo, de forma que, a partir de ahí,
sea posible trabajar en equipo con los constructores para considerar, desde
la etapa de diseño, la forma más conveniente de realizarlo. Normalmente,
cuando el diseñador no puede pensar en una manera de construirlo, es alta-
mente probable que no sea edificable.

Cuestiones de escala
La escala es tal vez el principal factor en cuanto viabilidad constructiva se
refiere. En el caso de edificios altos, repercute en la esbeltez. Por regla general,
entre más alto sea el edificio, más ancha deberá ser la base. Por ejemplo, la
Torre Willis (Sears) de 442 m de altura tiene una base de 69 x 69 m; si quisié-
ramos aumentar su altura a 610 m, la base crecería a 95 x 95 m y el área total
del edificio pasaría de 410 000 m2 a la gran cantidad de 1 100 000 m2, además
de incrementarse en la misma proporción los costos de terminación y equi-
pamiento; esto nos obliga a pensar en los límites de la capacidad económica
de un mercado inmobiliario. Por otra parte, hay límites prácticos relativos a la

188 Colección Textos FA o Tecnología


distancia desde el centro del edificio a la ventana para permitir la entrada de
luz al espacio interior, así como en las capacidades de ascensores y sistemas
mecánicos. En función de lo anterior se dice que la Torre Sears roza el límite
de la escala para su sistema constructivo: si hubiera que proponer una solución
más alta, se debe utilizar un sistema nuevo.
Para ir “más allá en la altura” en cuanto a la escala, es necesario desarro-
llar sistemas que no requieran excesos en el crecimiento del área o en tiempo
de construcción. La historia de los edificios más alto de los últimos 130 años
demuestra que los saltos de altura sólo se dan cuando se desarrollan nuevos
sistemas estructurales para hacer frente a los problemas de escala. Por lo cual
es razonable pensar que el crecimiento futuro sólo se logrará cuando surja
una nueva tecnología que supere la configuración de “torre de punta” usada
en la Burj de Dubai y permita estructuras de costo razonable, que generen
áreas de construcción adecuadas para el mercado con claros funcionales
construidos en un plazo sensato.

Otras variables importantes


Aunado a la escala, la forma de los rascacielos con la cual se defienden contra
el viento es el parámetro estructural más importante. Un edificio con una for-
ma “inadecuada” puede propiciar fuerzas tan grandes que lo vuelvan incons-
truible. Incluso pequeños cambios en la forma de una torre afectan significa-
tivamente el empuje del viento y modifican la viabilidad económica de un
diseño. Solventado el tema de los empujes laterales de viento, como regla ge-
neral, el sismo no resulta un problema mayor; incluso mediante los sistemas de
gravity framing se puede utilizar la masa de los edificios como una ventaja para
ayudar a resistir el viento y otras fuerzas laterales, con lo que se mejora en gran
medida su economía; otro ejemplo es el amortiguador de masa instalado en
la parte superior de la torre Taipéi 101 formado por una gigante bola de acero
de 680 toneladas suspendida sobre tensores desde la parte superior y sujeta a
pistones hidráulicos en la base, de manera que cuando el edificio se mueve
en una dirección el amortiguador lo hace en dirección inversa, absorbiendo la
energía de movimiento, limitando las vibraciones y estabilizando el edificio.

La realidad tectónica
Para ir más alto, la teoría debe soportar la prueba de la realidad. En la praxis,
el diseño de altas torres icónicas a menudo está marcado con un diseño im-
práctico. Atributos comunes de las torres que nunca llegan a construirse son
los siguientes:

1. La forma y su sistema estructural son innecesariamente complejos y


carecen de una idea integral que guie el diseño del proyecto, con ello
se genera una estructura difícil de construir. Un edificio que no se basa
en una idea estructural clara y sencilla se convierte en una amalgama
de condiciones atípicas, difíciles de construir.

Los límites formales de la construcción en la arquitectura contemporánea 189


2. La estructura es de construcción lenta. A la fecha, los edificios se construyen
por una planta a la vez y los grandes edificios suelen tener más de 100 niveles.
Un sistema constructivo poco eficiente tomará mucho tiempo y aumenta-
rá el riesgo de verse afectado por fluctuaciones de los mercados financie-
ros y climas políticos.
3. La estructura utiliza demasiado material. Muchos diseños sin construir no
se filtran por procesos de optimización bajo principios estructurales de
resistencia por forma y se solucionan mediante la “fuerza bruta”; por con-
siguiente, la cantidad de material (acero estructural, concreto y varillas)
puede superar con creces el uso normal de la construcción volviéndola
incosteable.
4. El proyecto genera demasiada superficie. En los últimos años ha habido
propuestas para edificios superaltos con hasta un millón de metros cua-
drados de área útil, lo cual deja la estructura comercialmente inviable.
No es un secreto que pese a que la inversión de mil quinientos millones
de dólares hecha para la Burj de Dubái haya pasado todas las corridas
financieras, hasta la fecha no se hayan terminado de comercializar los
309 473 m2 de su superficie.
5. Exuberancia irracional. Actualmente muchas propuestas de diseño mues-
tran una tendencia a la creación de formas por las formas mismas, sin
representar necesariamente un valor intrínseco que no sea el mero deseo
de crear algo icónico. Las líneas del horizonte en las grandes ciudades del
Oriente Medio y Asia se llenan de rascacielos atípicos que tratan de des-
tacar en una multitud de otras torres que también intentan sobresalir.
El resultado neto es que se ahogan entre ellas mismas en una cacofonía
de voces en la que todas son estruendosas pero ninguna se destaca.

El siguiente paso
En el caso de los edificios de gran altura, la tecnología resumida en las líneas
anteriores ha marcado su límite; en opinión de los expertos, el lograr mayores
alturas descansa en los desarrollos tecnológicos aún inexistentes, tanto de
materiales como de sistemas; sin embargo, estos mismos expertos señalan
que el cielo es el límite y que sólo es cuestión de tiempo para que surjan
nuevas tecnologías y caigan las marcas.

Más largo

Generalidades
Con la apertura del puente de la bahía de Qingdao en China (junio de 2011),
de 42.5 km de longitud –el más largo del mundo–; la apertura del puente de
la isla Russky en Rusia (julio de 2012), con un claro principal de 1 104 m
que impone una nueva marca para puentes atirantados; con la aprobación
del diseño ejecutivo para el Puente de Messina (pendiente de la autorización
para su construcción), que al ostentar 3 300 m de claro principal podría
convertirse en el mayor de los puentes colgantes, se demuestra la patente
búsqueda de claros más largos.

190 Colección Textos FA o Tecnología


Al igual que las estructuras tubulares en los grandes rascacielos, cuando habla-
mos de puentes de gran claro podemos decir que, actualmente, la tecnología tiene
dos posibilidades, utilizadas en función de las características específicas de cada
proyecto. Por un lado, los puentes atirantados; por otro, los puentes colgantes.
Los puentes de gran longitud como el de la bahía de Qingdago, que supera la
marca del maratón, estructuralmente no requieren avances tecnológicos especí-
ficos ya que salvan claros mucho menores utilizando sistemas convencionales.
La historia reciente de los megapuentes atirantados ha sido vertiginosa a par-
tir del puente de Alex Fraser en Vancouver, que en 1986, con un vano principal
de 465 m, era el de mayor longitud. En menos de 25 años el puente Sutong
en China (2008) y el puente de Canteros en Hong Kong (2009) lograron supe-
rar el kilómetro de longitud, con 1 088 m y 1 018 m, respectivamente. Recien-
temente, en julio de 2012, la marca ha quedado en Rusia con el puente Russky
en la ciudad de Vladivostok, el cual ostenta 1 104 m de claro libre
Por otro lado, la marca del kilómetro para los puentes colgantes fue supe-
rada desde 1931 con el puente George Washington sobre el río Hudson en
Nueva York, el cual presenta un vano de 1 066 m. Tan sólo tuvieron que pasar
65 años para que en 1998 se empujara ese límite cerca de la marca de los
dos kilómetros con el puente Akashi Kaikyo, que tiene un vano principal de
1 991 m. El siguiente paso significativo lo pretende dar el puente de Messina
en Italia, con un vano principal de 3 300 m.
Los límites de los diseños estructurales son constantemente desafiados; en
la carrera por romper los récords se utiliza el conocimiento existente y los
nuevos modelos matemáticos de fenómenos físicos, teniendo siempre pre-
sente la enseñanza del puente de Tacoma; sin embargo, independientemente
de los datos históricos y de la constante superación de los récords, ¿por qué
y cómo se están construyendo puentes con tales magnitudes?

Dos posibilidades para grandes claros


Como regla general, los tramos largos esencialmente se requieren por dos razones:

1. Permitir una navegación segura por debajo del puente para evitar ries-
gos inaceptables debido a colisiones de naves
2. Adaptarse al entorno natural, principalmente la batimetría, disminuyen-
do el impacto ambiental en el lecho marino

A partir de las condiciones específicas del sitio, habrá diferentes solucio-


nes óptimas. Con la tecnología actual, los puentes atirantados parecen ser la
mejor solución, cuando el claro libre está aproximadamente por debajo de
los 1 200 m, mientras que un puente colgante normalmente sería la opción
preferida si el claro fuera superior a 1 200 m.
Las ventajas de un puente atirantado sobre un puente colgante son el
menor tiempo de construcción, la mayor libertad y sencillez en la secuencia
constructiva y la reducción de costos, mientras que la ventaja de un puente
colgante es la capacidad de salvar un gran claro.

Los límites formales de la construcción en la arquitectura contemporánea 191


Los factores limitantes de los puentes atirantados son los efectos de la
altura de la torre, la longitud de los cables y la construcción en voladizo del
tramo principal. Mientras que los factores limitantes de los puentes colgantes
son la estabilidad aerodinámica y la adecuación operativa.
Durante una ponencia de la iabse13 en Londres, Lars Hauge y Erik An-
dersen, diseñadores responsables de algunos de los puentes más largos del
mundo, nos expusieron cómo para el gran puente Belt, en Dinamarca, se
evaluaron las opciones de puentes atirantados (900 -1 200 m de claro) y
puentes colgantes (con tramos de 1 400 -1 700 m). Resultó que los costos
adicionales para el dragado de compensación, los arrecifes de protección y
el realineamiento del canal de navegación superaron los costos adicionales
de tener un claro mayor con un puente colgante. Empero, en el caso del
puente Fehmernbelt, donde se comparó la opción de un puente colgante
de 1 600 m contra un puente atirantado con dos claros principales gemelos
de 724 m, resultó esta última la más atractiva debido a su menor tiempo de
construcción y al reducido impacto ambiental. En conclusió, cada caso debe
ser analizado en su complejidad particular.

Cómo se construyen los puentes atirantados


Una plataforma de 1 000 m de longitud en un puente atirantado tendrá la
sección transversal de la autopista. Normalmente se diseña como una viga en
cajones de forma aerodinámica, con los tirantes dispuestos triangularmente,
fijos al borde de la cubierta y convergiendo en la parte superior de la torre.
Los cables más largos mantienen una inclinación alrededor de los 24°, pues
una menor inclinación implicaría un aumento de fuerzas poco razonable.
Esto resultará en una estructura con torres de aproximadamente 300 m de
altura (en concreto o acero) y cables de 550 m de longitud; así será posible
construir la cubierta en voladizo con un riesgo manejable de vibraciones en
la torre y cables. Este sistema ha mostrado su eficiencia en puentes como el
Sutong, el Edong, el Tatara Bridge y el Pont de Normandie.

Los próximos retos de los puentes atirantados


Uno de los principales retos por superar al aumentar el claro del puente ati-
rantado es la estabilización del tramo principal durante la construcción en
voladizo, ya que es muy susceptible al viento. Para el puente Stonecutters los
efectos de dichas acciones fueron del mismo orden que la carga viva. Para sol-
ventar lo anterior, el estado del arte marca la necesidad de mantener una forma
aerodinámica que reduzca al mínimo el coeficiente de arrastre y disponga de
soportes temporales en el tramo principal; otra opción es la utilizada para el
puente de Normandía, donde se instaló un amortiguador de masa (semejante
al de los rascacielos) para atenuar los movimientos laterales. El puente de Nor-
mandía, aunque perdió el título del más largo en 1999, es considerado aún
13 iabse, International Association for Bridge como el más atrevido en lo que respecta a la construcción en voladizo, pues la
and Structural Engineering.
relación entre el claro y la anchura de la cubierta es significativamente mayor
a la del resto de los puentes de claros similares.

192 Colección Textos FA o Tecnología


Cómo se construyen los puentes colgantes
El rango típico para puentes colgantes es de 1 400 a 1 600 m de claro prin-
cipal. Los puentes vehiculares se solucionan con vigas en cajón cerrado de
acero, de uno a dos cajones en caso de necesitar mayor rigidez contra vien-
tos de gran magnitud. Si el puente debe albergar vías férreas lo más conve-
niente es una armadura de acero con dos pisos. En los dos casos, la flecha
del cable principal que tendrá sería de 1/9 a 1/11 del claro.

Los próximos retos de los puentes colgantes


En el caso de los puentes colgantes el quid de su desarrollo reside en la es-
tabilidad aerodinámica, debido al consecuente aumento de su flexibilidad.
Ante ello los diseñadores han optado por dividir el puente en dos o tres ele-
mentos. Debido al flujo de aire que los rodea, determinante para su estabi-
lidad aerodinámica, resultan altamente sensibles en los pequeños ajustes de
su geometría externa. En el puente colgante Xihoumen, China, se emplearon
dos vigas-cajón separadas para mejorar las características aerodinámicas, y
en el caso del icónico puente de Messina se ha diseñado una viga en cajón
con tres secciones –dos cajones laterales para la carretera y un cajón central
para el tren. Pruebas de túnel de viento han orientado a los diseñadores a
incluir pantallas de viento o incluso una red permeable horizontal entre las
cajas para mejorar las condiciones aerodinámicas.
Otro gran desafío para un puente colgante de gran claro son las juntas de
dilatación. Para el Great Belt se introdujeron amortiguadores hidráulicos que
limitaron el movimiento de las uniones y el movimiento máximo de las juntas
de expansión, restringiéndolos al orden de 1 m. En Messina, la articulación
alrededor de las juntas de dilatación es un proyecto en sí mismo que implica
separar la estructura manteniendo la continuidad de flujo de fuerzas mediante
una compleja disposición del sistema de amortiguadores hidráulicos.

El siguiente paso
Varias ideas han surgido para empujar el límite del claro que libran los puen-
tes atirantados, desde postensados para aliviar la sección transversal en la
torre, hasta el uso de cables de fibra de carbono, cuya ventaja es una mayor
resistencia y menor peso, pero su costo los mantiene fuera de la viabilidad
económica de los grandes proyectos.
En el caso de los puentes colgantes hay una tendencia hacia múltiples
intervalos en lugar de vanos de mayor longitud. Dicho concepto se propuso
para el cruce de Gibraltar, con múltiples claros de 3 500 m, así como en el
puente de Chacao en Chile, con dos vanos que aprovechan la batimetría en
el alineamiento. Esta propuesta garantiza la reducción en materiales y por lo
tanto el costo y tiempo, pero el reto reside en la rigidez vertical que se pierde
con esta disposición.
Entre más largo es el tramo principal de puentes colgantes más largos son los
cables de soporte, tanto en los cables principales como en los tirantes. La longitud
creciente implica períodos de oscilación más largos cuyo contenido de energía

Los límites formales de la construcción en la arquitectura contemporánea 193


en la carga del viento es significativo. Por lo tanto, la oscilación del cable es un
tema importante por resolver si se desea aumentar los claros.

El puente híbrido
En las últimas décadas se ha discutido mucho sobre puentes híbridos. Estos
resultan de la combinación de secciones atirantadas cerca de las torres y
plataformas colgantes en el centro del claro principal; sin embargo las con-
clusiones indican que tecnologías mixtas introducen lo peor de los mundos
en lugar de lograr beneficios mutuos.

Más ligero

Generalidades
El hilo conductor en la historia de la ingeniería estructural es la búsqueda de
sistemas más ligeros. Enormes masas de mampostería que trabajaban a com-
presión en forma de arcos y domos, de varias toneladas de peso por metro
cuadrado,14 fueron durante mucho tiempo la única forma de cubrir grandes
espacios. Hacia el siglo xix el hierro y después el acero permitieron reducir
el peso de las cubiertas al orden de cientos de kilogramos por metro cuadra-
do, rango logrado por el concreto armado hasta los años veinte gracias a la
idea de cascarones delgados resistentes por su forma. Un mayor desarrollo
de la ingeniería estructural aceleró la tendencia hacia estructuras todavía
más ligeras, como estructuras espaciales, estructuras de cables y, por último,
las estructuras de membrana. La tecnología actual ha hecho las cubiertas de
grandes claros realmente ligeras, con un peso inferior a diez kilogramos por
metro cuadrado.
El profesor Jörg Schlaich, ingeniero alemán responsable de un sinfín de estruc-
turas icónicas, define esta búsqueda de la ligereza con el siguiente argumento:

Cualquier estructura diseñada inteligente y responsablemente aspira a ser


“lo más ligera posible”. Su función es soportar “las cargas vivas”. La carga
muerta de la estructura es un mal necesario. Cuanto menor sea la relación
entre el peso propio de una estructura y las cargas vivas admitidas, más “li-
gera” podrá considerarse.15
14 Las cúpulas romanas, de concreto
puzolánico simple, presentaban sección
y densidades variables. En el caso del Bajo este criterio, e independientemente del sistema estructural utilizado,
Panteón de Agripa, la cúpula se desplanta
en un muro de seis metros de espesor y la razón del peso (masa) por metro cuadrado es el parámetro por excelencia
termina en metro y medio a nivel de la
linternilla; el volumen aproximado es de para comparar la ligereza de las estructuras. A partir de ello, el ingeniero
13 500 m3 y el peso unitario por área de japonés Mamuro Kawaguchi realizó un seguimiento histórico de pesos uni-
desplante alcanza las siete toneladas.
15 J. Schlaich y K. Göpepert, “The essence of tarios de cubiertas en edificios significativos.16 Llegó a la conclusión de que,
Lightweight Structures”, en M. Mollaert
(ed.), The Design of membrana and
sin considerar contados íconos de eficiencia estructural, como la cubierta del
lightweight structures, Brusselas, VUB, Panteón de Agripa o el Palacio de Cristal, es hasta mediados del siglo xix
Brussels University Press, 2002, pp. 13-30.
16 M. Kawaguchi, “The Lighter, the Better?”, y a principios del xx que se produce un avance significativo, gracias a que
iabse-iass Symposium 2011, Londres, 2011.
algunos genios constructores aplicaron ideas innovadoras y juicios reflexi-
vos, generalmente orientados a la geometría de las estructuras; con ello se

194 Colección Textos FA o Tecnología


establecieron las bases para que en la segunda mitad del siglo xx se llegara
al extremo mínimo de ligereza, dado que ir más allá no resultaría necesaria-
mente positivo.

¿Qué son las estructuras ligeras?


Las estructuras ligeras son sistemas estructurales cuyas características particu-
lares las hacen altamente eficientes17 y por ende ligeras. Tal vez la caracterís-
tica más distintiva es la congruente configuración entre forma y ley de carga,
lo cual les confiere complejas apariencias, cuyos elementos (anclas, cables,
postes, superficies, etcétera) normalmente se muestran como una composi-
ción necesaria de su función: la transmisión de fuerzas. Por lo anterior, no
es de extrañarse el auge que tuvo esta aproximación estructural en la arqui-
tectura del movimiento moderno bajo el lema “La forma sigue a la función”.
Pese a sus virtudes, el principio de estructuras ligeras no siempre es utiliza-
do, ya que en la práctica las estructuras son construidas “tan pesadas como sea
justificable”; en los puentes cortos se utilizan vigas sólidas; para claros arriba de
100 m se ocupan arcos y para 250 m, armaduras, donde son aceptadas car-
gas muertas hasta cinco veces mayores que las cargas vivas. Más allá de los
300 m, las cargas muertas son tan dominantes que únicamente los sistemas a
tracción pueden implementarse, sin embargo arriba de los 1 000 m sólo al-
gunos de estos sistemas pueden hacerlo posible,18 aunque con un alto sacrifi-
cio en la eficiencia. Ejemplo de lo anterior es el puente colgante de Messina
con el claro de 3 300 m diseñado con cuatro cables principales de 1.7 m de
diámetro, los cuales consumen casi la mitad de su capacidad de carga para
soportarse a sí mismos y otro tanto para la cubierta y cargas accidentales, de-
jando un mínimo porcentaje para tomar la carga viva. Bajo estas condiciones
una estructura semejante no podría considerarse ligera; sin embargo, para un
claro de tal magnitud no puede haber nada más ligero, al menos hasta que se
desarrollen nuevas tecnologías en materiales o sistemas.

Cómo se concibe una estructura ligera


17 La eficiencia estructural referida aquí es
En el diseño de estructuras ligeras se debe tener presente los siguientes puntos: la relación entre los resultados obtenidos
y los recursos invertidos. Los sistemas
estructurales eficientes utilizan un alto
1. La importancia de la escala. La escala es la característica más desfa- porcentaje de las capacidades de los
vorable respecto a la carga muerta: el espesor de una viga sometida a materiales involucrados en su construcción
para soportar las cargas de diseño
esfuerzos de flexión no aumenta proporcionalmente a su claro (lo cual (muertas, vivas y accidentales), con lo cual
a menudo es falsamente asumido) sino a razón del cuadrado del claro. la masa del sistema se minimiza (menos
utilización de recursos) y las capacidades
Por ejemplo, si una viga con 10 m de claro necesita 0.1 m de espesor del mismo aumentan (mayores resultados).
18 Ver apartado respecto a los puentes más
para cargarse a sí misma, al aumentar el claro por un factor de 10, alar- largos.
gándola a 100 m, el espesor deberá aumentar en un factor de 100, en 19 Galileo Galilei, Dialogues Concerning Two
New Sciences, 1° ed. 1638, eBooks@
consecuencia el peso lo haría por un factor de 1,000. Adelaide, ed., South Australia, Australia:
Galileo Galilei nos hace conscientes de la importancia de la escala al The University of Adelaide http://
creativecommons.org/licenses/by-nc-
comparar un delgado hueso de ave con un voluminoso hueso de dino- sa/3.0/au. [Consultado el 31 de diciembre
saurio, lo cual demuestra que el incremento del claro por necesidad del 2013]

natural aumentará el peso de la estructura.19

Los límites formales de la construcción en la arquitectura contemporánea 195


2. Evitar momentos flexionantes. Una posibilidad para darle la vuelta a la
demostración de Galileo es “disolver la viga”, es decir evitar elementos
sometidos a esfuerzos de flexión en favor de aquellos que trabajan a
esfuerzos axiales de tracción o compresión. Por ejemplo, la viga en
celosía, cuya sección transversal se disuelve eliminando el material su-
perfluo y dejando sólo barras sometidas a esfuerzos axiales. En vigas
sometidas a flexión sólo las fibras de borde trabajan en su máxima ca-
pacidad, pero aun así deben soportar su centro lleno de masa inútil es-
tructuralmente. Incluso la tracción es más favorable, ya que el desgarro
es el único mecanismo de falla, mientras que los puntales delgados a
compresión tienden a fallar debido al pandeo, por lo cual requerirán de
más material para garantizar su estabilidad.
3. Utilizar la eficiencia de los materiales. Los materiales más eficientes,
estructuralmente hablando, son aquellos cuya relación entre resistencia
(β) y densidad (Ү) es favorable. La razón de β/ Ү puede conceptualizarse
como la longitud máxima que puede alcanzar una imaginaria barra de
cualquier material anclada verticalmente en el extremo superior, antes
de desgarrarse por el peso de su propia masa. Bajo esta perspectiva es
posible decir que la madera es más eficiente que el acero; y que lo son
aún más las fibras naturales, como el henequén, o artificiales, como la
aramida (kevlar).
4. Intercambiar compresión por tracción. Otro ingenioso truco para conce-
bir estructuras eficientes es la utilización de presfuerzo en los sistemas,
transformando los esfuerzos menos eficientes de compresión en favora-
bles esfuerzos de tracción. Estos sistemas permiten sistemas de esfuerzos
diferenciados como los tensegrity o los elementos tipo viga-cable que
podemos encontrar en el Palacio de Cristal de Paxton.
5. La forma proporciona la resistencia, razón para aprovechar la espaciali-
dad. El principio básico para concebir estructuras ligeras, que integra los
cuatro puntos anteriores, podemos ubicarlo dentro de una nueva disci-
plina denominada Mecametría20, la cual busca aprovechar la geometría
para optimizar las propiedades mecánicas de las estructuras. Éstas son
concebidas como estructuras espaciales que se desarrollan en sus tres
dimensiones. Ya sea un delgado cascarón de curvatura anticlástica, una
estructura espacial configurada con los vértices de sólidos regulares o
una superficie neumática de geometría sinclástica, todas buscan mante-
ner sólo esfuerzos de membrana al mínimo posible, a fin de aprovechar
el máximo potencial de los materiales de fabricación.
20 La mecametría es un neologismo acuñado
por el doctor Juan Gerardo Oliva Salinas a
principios de siglo. Describe una postura Los íconos en las cubiertas ligeras
académica que busca integrar la Mecánica y
la geometría con el fin de concebir sistemas
estructurales eficientes. Dicha postura El Panteón de Agripa
genera una disciplina heredera de otras
anteriores, como la geometría estructural Una de las primeras referencias significativas en la búsqueda de la ligereza
o la morfología estructural pero con una
visión integradora entre la arquitectura y la es el Panteón de Agripa o Panteón de Adriano, fechado entre 118 y 128 d.C.
ingeniería. Con sus 43.3 m de diámetro, es la cúpula de concreto simple más grande que
haya sido construida hasta nuestros días. Para lograrlo se siguieron de manera

196 Colección Textos FA o Tecnología


pragmática las recomendaciones de ligereza comentadas anteriormente, ba-
sadas en la eficiente geometría de la semiesfera y en un esquema estructural
sencillo, pero cargado de razones constructivas de gran validez.
De aquellos argumentos constructivos destacan: 1) la prefabricación y
avanzada manufactura de sus 28 meridianos, con casetones que sustituyen
la masa inútil por aire y exhiben el sistema constructivo; 2) la decreciente
densidad de los mampuestos de relleno que, en las seis secciones de la altura
total, pasan de grandes bloques de mármol travertino en la cimentación de
7.3 m de ancho, hasta un mortero compuesto de toba y lava ligera de 1.5 m
de espesor en la altura de la linternilla cenital; 3) la implementación de una
nueva tecnología a base de concreto puzolánico tomado del monte Vesubio,
que se vierte y fragua mediante un procedimiento específico, determinado
por el método de prueba y error. Dicho cemento es hasta nuestros días un
material de uso común y de alta impermeabilidad.

El Palacio de Cristal
Otro importante ícono de eficiencia estructural en grandes cubiertas es el
Palacio de Cristal de Joseph Paxton, con sus 90 000 m2 construidos en seis
meses para la Exposición Universal de 1851, y con tan sólo 80 kilogramos
por metro cuadrado. Implantó una marca de ligereza que tardó 114 años en
poder ser replicada por el Astrodome de Houston.
El ingenioso diseño que lo hizo posible provino del conocimiento tecnoló-
gico que Paxton desarrolló como jardinero, en la construcción de invernade-
ros. Utilizó la estandarización y prefabricación de elementos constructivos en
un módulo tipo de 7.2 m. Mediante una estructura portante de hierro y forja
diseñó un sistema de techo con cristales de canto, el cual formaba valles y
crestas; éste, trabajando conjuntamente con un canalón de madera, conformó
el módulo que hace posible la ligereza de la cubierta.
En dicho módulo los cristales se apoyan entre sí a lo largo de la cresta y están
soportados por una canaleta de madera a lo largo del valle. El inteligente
diseño confiere a los cristales la pendiente suficiente para el drenaje pluvial,
a la vez que produce tan sólo un cuarto del momento flexionante que pro-
duciría un panel horizontal. Los componentes horizontales de la compresión
en el plano (coceo) se anulan con los del módulo adyacente.
Incluso el canal de madera de Paxton es un antecedente de los moder-
nos sistemas estructurales ligeros de esfuerzos diferenciados tipo viga-cable.
Como el canal debía tener una inclinación adecuada para drenar y la fabri-
cación de canalones combados resultaba poco práctica, se fabricaron ca-
nalones rectos, cuya cuneta de madera funciona estructuralmente como el
cordón superior de una viga; asimismo se implementó una varilla de hierro
usada como cordón inferior, separada en la parte central por dos puntales:
la tracción de la varilla (postensado) flexionaba el canal, de forma que se le
confería la pendiente suficiente.

Los límites formales de la construcción en la arquitectura contemporánea 197


Sistemas traccionados de Shúkhov
Como ya se comentó, a finales del siglo xix y principios del xx se dio el gran
desarrollo de las cubiertas ligeras gracias al talento de varios arquitectos e
ingenieros, entre los que destacan nombres famosos como Gaudí, Nervi,
Candela u Otto. Un pionero importante no tan renombrado fue el ingeniero
ruso Vladimir Shúkhov (1853-1939), responsable de la creación de varios sis-
temas estructurales ligeros, muchos de ellos implementados en la exposición
Toda Rusia, realizada en Nizhnij Novgorod en 1896. Tal vez su estructura
más emblemática fue la Torre Shúkhov, en forma hiperboloide de un manto,
constituida por barras de acero rectas.
Otra innovación estructural mostrada en la misma exposición fue la lla-
mada Rotonda de Shúkhov, notable sistema construido como una cáscara en
celosía en forma de cúpula esférica invertida y una estructura base en forma
de hiperboloide rodeado que trabajaba a tracción.

Estructuras espaciales de Graham Bell


Aquello que Eero Saarinen denominaba “tecnología transfer” explica cómo
el desarrollo de la construcción se ha nutrido de muchas fuentes; ejemplo de
ello lo encontramos con Alexander Graham Bell quien, entusiasmado con el
sueño de volar aun después del éxito de los hermanos Wright, realizó una
investigación sobre locomoción aérea basada en el principio de las cometas
y sentó las bases de las estructuras espaciales.
Bell argumentaba que la velocidad de 60 km/h requerida por los her-
manos Wright para levantar el vuelo resultaba insegura al aterrizar y que la
velocidad correcta debería rondar los 15 km/h, condición lograda por los
cometas. Su propuesta consistía en una ligera estructura tetraédrica con dos
triángulos inferiores cubiertos de seda o papel. Esta cometa tenía una capaci-
dad limitada de llevar “carga útil”, mas con sus estudios buscaba aumentarla.
Conocedor de la Ley de Newcomb21, en lugar de buscar resolver el problema
de la carga útil aumentando la escala, incrementó el número de cometas.
En 1907 la investigación sobre la locomoción aérea de Bell culminó en el
cometa tripulado Sygnet, constituido por 3 393 módulos que pesaban cerca
de 1 kN. Sygnet logró elevarse a 50 metros de altura; y aunque no resultó
competitivo en el mercado aeronáutico, la ligereza, resistencia y rigidez de
sus tetraestructuras permitió el desarrollo del sistema estructural Tetra22, único
en su momento que lograba un flujo de fuerzas tridimensional, la construc-
21 Cuando se aumenta el tamaño de
una máquina sin cambiar su diseño, ción estandarizada y modular, la prefabricación y producción en masa, así
aumentamos el peso en proporción al cubo como un transporte y el montaje eficiente y económico. Todo ello representó
de las dimensiones lineales, mientras que
la eficacia de la potencia de soporte del un paso significativo en la industrialización de los sistemas constructivos.
aire sólo aumenta en relación al cuadrado
de esas dimensiones.
22 La primera aplicación del sistema Tetra Estructuras de tensión, llegando al extremo de la ligereza
que realizó Bell con una estructura
arquitectónica fue una torre-mirador para
uso propio en su tierra de Nueva Escocia,
Canadá.
Dentro de los posibles esfuerzos a los que se someten las estructuras, la
tracción es el más deseable, dado que no produce pandeo ni flexión y es

198 Colección Textos FA o Tecnología


posible considerar que prácticamente toda el área de la sección del material
contribuye a su capacidad de carga.
Matthew Nowicki inició el camino de las cubiertas que trabajan únicamente
con tracción con las redes de cable de la Arena Raleigh en 1952; posteriormente
Frei Otto profundizó la investigación sobre este tipo de estructuras y elaboró la cu-
bierta de red de cables con hojas de acrílico para el pabellón alemán en la Expo-
sición de Montreal de 1967 y en las instalaciones olímpicas de Múnich en 1972.
Por otro lado, las estructuras inflables fueron introducidas por Walter Bird
después de la Segunda Guerra Mundial para cubrir antenas de radar, con tal
éxito que rápidamente encontró su nicho en los espacios arquitectónicos
y en la exposición de 1970 en Osaka. David Geiger realizó el pabellón de
Estados Unidos con una cubierta textil inflable de fibra de vidrio recubierta
de pvc, reforzada por una red de cables, mientras que Tsuboi y Kawawichi
realizaban para Kenso Tange la “Gran Cubierta” de la misma Expo’70, utili-
zando películas transparentes de poliéster. El peso de la cubierta olímpica de
Múnich era de 9 kg/m2; el pabellón de usa en Osaka de 6 kg/m2; y la “Gran
Cubierta” de la misma exposición de tan solo 3 kg/m2, lo cual marcó el límite
práctico de las grandes cubiertas ligeras.
Si el peso del techo fuera la única carga por soportar tendría sentido bus-
car cubiertas aún más ligeras de las comentadas, sin embargo existen otros
escenarios de carga que una estructura debe considerar. Tal es el caso de la
succión del viento, para la cual la ligereza resulta negativa. La fuerza con la
que el viento puede llegar a succionar una cubierta depende de varios facto-
res pero, desde una aproximación estática, se mantiene en un rango de 50 a
200 kg/m2, por lo tanto una cubierta más ligera que esa fuerza necesitará de
elementos que la aten al piso para no salir volando.
Los medios más utilizados en cubiertas ligeras para contrarrestar la suc-
ción del viento son: 1) el anclaje de la superficie del techo, como en el Arena
Raleigh; b) la introducción de un presfuerzo entre los cables colgantes y los
cables de arrostramiento; c) presfuerzo en las membranas de superficie anti-
clástica. Estos medios aumentan la rigidez y evitan la vibración excesiva, sin
embargo se debe tener mucho cuidado ya que el pretraccionado produce un
estado de autoequilibrio de fuerzas en una estructura que puede aumentar
ilimitadamente sin ningún beneficio.
23 En 1988 Philip Johnson coordinó una
exposición en el MoMA que llevaba el
Más complejo nombre de “La perfección violada”, pero
al considerarse demasiado agresivo fue
cambiado por “Deconstructivismo”, título
que aprovechaba las referencias a la
Generalidades corriente lingüística y filosófica liderada por
A 25 años de haberse presentado la legendaria exposición en el MoMA titula- Derrida. En esta exposición participaron
quienes a la postre marcarían la vanguardia
da “Deconstructivismo”,23 podemos decir que la búsqueda formal es la nueva de la arquitectura de geometría compleja, a
paradoja en la extensión de los límites de la arquitectura. Si bien Boullée y los saber: Eisenman, Gerhy, Tschumi, Koolhaas,
Coop Himelblau, Libeskind y Zaha Hadid.
mismos utopistas planteaban formas inverosímiles, todas ellas podían ser con- Aquella exposición se caracterizó por una
arquitectura desfragmentada, opuesta
cebidas con las clásicas herramientas de Euclides: combinación de prismas, al estereotipo formal de la arquitectura
esferas o cilindros. Incluso los paraboloides hiperbólicos, los catenaroides y posmoderna.

Los límites formales de la construcción en la arquitectura contemporánea 199


otras superficies gaussianas de doble curvatura, utilizadas eficientemente en
estructuras ligeras desde hace muchos años, se definen por sencillas ecua-
ciones de segundo orden de una o dos variables; sin embargo, hoy es otra
historia, las formas presentan una geometría diferente y el abanico de posibi-
lidades geométricas se abre con una libertad aparentemente total.
A partir de la última década del siglo pasado, con el impulso de las herra-
mientas digitales, empieza a despuntar la arquitectura de las formas comple-
jas, que rechaza la arquitectura figurativa de los años setenta y ochenta, la
cual, según Koolhaas –en un afán comunicativo– produjo una “pesadilla se-
mántica”.24 Con ello se acuñan términos como el citado “deconstructivismo”
de Jhonson; la “nueva abstracción” de Montaner o “moder next” de Jencks,
los cuales intentan nombrar las tendencias experimentales que apuestan a la
novedad y rompen con el pasado.
Si vivimos en un mundo cada vez más complejo no es de extrañarse que
como respuesta a esa realidad, la arquitectura tienda a ser compleja. Arqui-
tectos como Zaha Hadid, Morphosis y Frank Gerhy ponen tanto las bases
teóricas para lograrlo como los proyectos que exageran la naturaleza com-
pleja de la arquitectura. Actualmente, las formas que han derivado de esta
búsqueda son llamadas “arquitectura paramétrica”, “free-form” o “geometría
compleja”, cada una con sus particularidades.

Cómo se concibe la geometría compleja en la arquitectura


Si se entiende lo complejo como la medida en que aumentan las variables
que definen un sistema,25 podemos definir la geometría compleja como aque-
lla en cuya construcción analítica se involucran un alto número de ecuacio-
nes, de manera que es posible ligar a estas ecuaciones tantos parámetros de
diseño como se necesiten para lograr la respuesta formal deseada, según las
siguientes consideraciones.
Toda forma tiene una definición analítica que puede expresarse en ecua-
ciones cuyas variables son puntos en el espacio (x,y,z). Las superficies de
geometría compleja utilizan el procedimiento denominado nurbs26, el cual
concatena una familia de polinomios sociables de diversos grados, como
líneas, curvas, retículas y planos. Éstos, mediante procedimientos de control,
interactúan con el diseñador para generar superficies suaves constituidas por
múltiples ecuaciones específicas para cada zona de la superficie. La comple-
jidad no es producto del azar, se trata de una estructura matemática.
El diseñador rara vez se involucra en las matemáticas que hacen posible
24 J. M. Montaner, Sistemas arquitectonicos
contemporaneos, Barcelona, Gustavo Gili, dicha geometría; comúnmente se utilizan los programas cad (computer-ai-
2008.
25 E. Morin, Introducción al pensamiento
ded design) como caja negra, para generar y manipular las formas complejas
complejo, Barcelona, Gedisa, 1990,. intuitivamente. Sin embargo, las posibilidades actuales van más allá de una
26 nurbs es el acrónimo de Non Uniform
Rational Basic Splines; se refiere al tipo de manipulación arbitraria. Mediante las nuevas herramientas de diseño para-
malla con que, de forma paramétrica, se métrico es posible integrar, desde la etapa de gestación formal de un edificio,
modela por medios electrónicos el diseño
de superficies de la llamada arquitectura variables o “parámetros” que dan una respuesta geométrica óptima a temas
“free-form”.
tan variados como la estructura o la iluminación.

200 Colección Textos FA o Tecnología


La trampa intrínseca dentro de estas poderosas herramientas de diseño
surge cuando, irónicamente, se resuelve la geometría compleja bajo una sola
perspectiva. Esto proporciona una respuesta geométrica óptima a un sólo
componente, en la mayoría de los casos el estético, lo cual dista mucho de
ser la mejor posibilidad estructural o funcional, y genera una arquitectura
desequilibrada, la cual ha conceptualizado a la “free-form” como “el sueño
de los arquitectos y la pesadilla de los ingenieros”.
Empero, éste no es necesariamente el único camino; es posible conjuntar
la doctrina de las estructuras ligeras con una nueva búsqueda formal, que in-
tegre las herramientas nurbs con la eficiencia estructural o energética. Desa-
rrollos tecnológicos hechos por el equipo som27 de William Baker elaboraron
un contenedor plástico para líquidos de forma libre que con menos material
logra mayor rigidez que los contenedores convencionales; por otro lado, Phi-
llip Block propone en su tesis de doctorado un sistema de análisis mecánico
denominado tna28 con el cual, de forma paramétrica, encuentra la solución
geométrica de formas no convencionales que trabajan preponderantemente
por esfuerzos de compresión, de forma análoga a los modelos funiculares
de Gaudí. En México, Ramírez Ponce construye cubiertas tabicadas de geo-
metría compleja utilizando parámetros técnicos depurados en la tradición
práctica acumulada durante varias generaciones de bebederos mexicanos.

Cómo se construye la arquitectura de geometría compleja


Contrario al espíritu de Torroja, quien en su libro Razón y ser de los tipos
estructurales pugna por que la personalidad específica de cada material dé la
pauta a la forma del sistema estructural, en las superficies de geometría com-
pleja la práctica común es la generación geométrica para después lograr la so-
lución constructiva. Esto es posible gracias al análisis estructural por elemento
finito, el cual evalúa como un solo elemento tridimensional los esfuerzos y
deformaciones de sistemas altamente complejos, en los cuales interactúan
una gran cantidad de materiales, elementos y escenarios de carga.
Para su construcción se utilizan adaptaciones de sistemas estructurales
convencionales, comúnmente mediante las siguientes tres posibilidades:

•• Pórticos o marcos metálicos en los que tanto los pies derechos como las
vigas o armaduras se modelan con las torsiones que requiere el edificio.
•• Cascarones de concreto, donde la realización de la cimbra es el reto por
vencer para después generar una superficie de concreto armado con una
gran densidad de acero y un espesor diametralmente opuesto a las ligeras
cáscaras de Candela. 27 Despacho de ingeniería estructural de
Skidmore, Owings y Merrill.
•• Sistemas tridimensionales de barras y nodos que mantienen su eficiencia 28 tna, acrónimo de Thrust Network Analysis,
estructural. Al perderse la modulación, el reto reside en la logística desde la sistema de análisis mecánico desarrollado
por Block y Ochsendrof, “Thrust Network
prefabricación y montaje. Analysis; a new methodology for three-
dimensional equilibrium”, Journal of the
International Association for Shell and
Spatial Structures 48(3) (diciembre, 2007).

Los límites formales de la construcción en la arquitectura contemporánea 201


Es importante apuntar que, independientemente del sis- se deje de supeditar los parámetros de eficiencia a la expe-
tema constructivo elegido, el grueso de las construcciones rimentación estética, las posibilidades de crear una verda-
de este tipo se realizan con la inclusión en menor o ma- dera arquitectura sustentable se aprecian infinitas.
yor medida de sistemas numéricos de producción digital, Vivimos un momento histórico privilegiado, cuando la
los cuales prácticamente prescinden de planos impresos; informática permite crear diseños que en un pasado no
en cambio, es el intercambio de información por medios muy lejano hubieran resultado imposibles. Sin embargo,
electrónicos el que permite la fabricación de las piezas que no debemos hacer nuestro diseño dependiente de ella.
serán ensambladas en la obra, desde la estructura hasta los Diseño y análisis son dos prácticas distintas. En el pasado,
acabados. los diseños tenían que ser racionales por las limitaciones de
cálculo y fabricación. Hoy la computadora puede ayudar-
Conclusiones nos a fabricar sistemas más eficientes, pero también puede
permitir el diseño de formas innecesariamente complejas
Aunque la voluntad del hombre está detrás de las grandes e ineficientes.
construcciones, son las innovaciones tecnológicas las que Por lo anterior, es necesario abundar en un discurso so-
permiten superar los retos, las cuales se logran no sólo por bre cómo podemos utilizar mejor estas herramientas para
arquitectos e ingenieros, sino por el conocimiento conjun- hacer frente a las necesidades de nuestro momento histó-
to de diversas disciplinas, en un trabajo colectivo que siem- rico, clientes, cultura y medio ambiente. El ámbito de esta
pre ha encontrado la respuesta a, ¿cómo hacerlo? discusión es amplio y nos obliga a examinar nuestra po-
La respuesta se fundamenta en los principios mecáni- sición ética y preguntarnos si el hecho de que podamos,
cos básicos, no en el descubrimiento del hilo negro. Los ¿significa que debemos hacerlo?
rascacielos se construyen con tubos que maximizan su Algunos pueden argumentar que si el cliente puede per-
inercia; los megapuentes son posibles ya que los elemen- mitirse una estructura costosa extra, ¿dónde está el daño?;
tos de soporte están sometidos a esfuerzos de tracción; las otros, que en esta época de recursos limitados, los dise-
grandes cubiertas se realizan gracias a que su disposición ñadores tienen la obligación de resistir a los diseños que
geometría responde naturalmente a su fenómeno tensio- utilizan una mayor cantidad de material que soluciones
nal. En contraste con ello, en la mayoría de los casos, más eficientes. En pocas palabras, nuestra profesión está
las formas complejas se han caracterizado por transgredir en un cruce de caminos: el mundo tiene recursos limita-
artificialmente estos principios mecánicos. dos, pero aparentemente ilimitada oportunidad creativa.
En el caso de los grandes rascacielos, la tecnología ha Como profesionales, tenemos la responsabilidad de buscar
marcado su límite cercano a los 900 m, pero ya se encuen- el equilibrio entre la necesidad humana de inspiración y
tran en desarrollo nuevas tecnologías para ser aplicadas el crecimiento de las exigencias de economía y eficiencia.
en mediano plazo. En cuanto a los grandes puentes, se
cuenta con el desarrollo tecnológico para enfrentar el reto
de los 3 000 m, sin embargo los cambios en el escenario
económico mundial han pospuesto su construcción. Por
otro lado, las estructuras ligeras parecen haber encontrado
su límite práctico en los 2 kg/m2 de las cubiertas textiles,
no obstante, en palabras de Pier Luigi Nervi, “no hay duda
de que cualquier producto que destaque por su eficiencia
es siempre estéticamente satisfactorio”; y aunque no se
realicen cubiertas más ligeras, la arquitectura siempre es-
tará ávida de novedosos sistemas estructurales eficientes.
Finalmente, la nueva paradoja de las formas complejas,
después de un inicio vertiginoso, empieza a encontrar el
equilibrio en el costo que implica su realización; cuando

202 Colección Textos FA o Tecnología


Referencias

Addis, B. 3000 Years of Desing Engineering and Construction. Londres: Phaidon


Press, 2007.
Baker, W. Taller. iabse-iass Symposium 2011. Londres, 2011.
Bell, A. G. ”Tetrahedral Principle in Kite Structure“ (V. X. The National Geographic
Magazine, ed.). Recuperado el 27 de diciembre del 2013 de Library of Congress:
http://www.loc.gov/collection/alexander-graham-bell-papers/articles-and-
essays/inventor-and-scientist/
Castro Villalba, A. Historia de la construcción arquitectónica. 2a ed. Barcelona,
España: Edicions de la upc, 1996.
Cerezo, L. J. y J. L. Luján (eds.) Teorema XVIII (3, 1998). [versión electrónica revi-
sada y ampliada del número monográfico sobre Filosofía de la Tecnología, L.
Cerezo y J. L. Luján, eds.] Recuperado el 27 de diciembre del 2013 de http://
www.oei.es/salactsi/teorema.htm
Coromines, J. Breve diccionario etimológico de la lengua castellana. 3° ed. Ma-
drid, España: Gredos, 2008.
Framton, K. Estudios sobre cultura tectónica. Poéticas de la construcción en la
arquitectura de los siglos XIX y XX. Madrid, España: Akal, 1999.
Galilei, G. Dialogues Concerning Two New Sciences. (eBooks@Adelaide, ed.)
Australia del Sur, Australia, The University of Adelaide. Recuperado el 31 de 12
de 2013, de http://creativecommons.org/licenses/by-nc-sa/3.0/au/
Hauge, L. y E. Y. Andersen. ”longer…..“ iabse-iass Symposium 2011. Londres,
2011.
Instituto de Ciencias de la Construcción “Eduardo Torroja”- csic. ”Hitos Estructura-
les de la Arquitectura y la Ingenieria“. En V. Azorin López, P. Cassinello Plaza y
M. D. Gómez Pulido (eds.), Jornadas Internacionales de Investigación en Cons-
trucción. Madrid: csic, 2011.
International Association for Bridge and Structural Engineering-International As-
sociation for Shell and Spatial Structures. iabase-iass symposium 2011, Taller,
Longer, Lighter. Londres: Hemming Grup, 2011, 593 pp.
Kawaguchi, M. ”The Lighter, the Better?“ iabse-iass Symposium 2011. Londres,
2011.
Kloft, H. Logic and Form: From Isler Shells to Nonstandard Structures. Londres,
iass: 2011.
Licinia, A., y Altozano García, F. ”Documentación gráfica mediante fotogrametría
digital“ En De la Huerta, Crespo, Garcia y Talín (eds.), Actas del Septimo Con-
greso Nacional de Historia de la Construcción. Santiago, 2011.
Montaner, J. M. Sistemas arquitectonicos contemporáneos. Barcelona, España:
Gustavo Gili, 2008.
Morin, E. Introducción al pensamiento complejo. M. Pakman trad. Barcelona, Es-
paña: Gedisa, 1990.
Ortega y Gasset, J. Meditación de la Tecnica y otros ensayos. 7° ed. Madrid, Espa-
ña: Revista de Occidente, 1977.
Schlaich, J., y K. Göpepert. ”The essence of Lightweight Structures“. En M. Mo-
llaert (ed.), The Design of membrana and lightweight structures. Bruselas: vub,
Brussels University Press, 2002, pp. 13-30.
Subramanian, N. Space Structures Principles and Practice. Brentwood, Essex, Rei-
no Unido: Multi-Science Publishing Co, 2006.

Los límites formales de la construcción en la arquitectura contemporánea 203

S-ar putea să vă placă și