Sunteți pe pagina 1din 51

PROSPECTIVA TECNOLOGICA

Reconocimiento del curso

IBETH TATIANA ACEVEDO

GRUPO: 102503_37

TUTOR: ANDREY EDUARDO GALVIS

UNIVERSIDAD
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍAS
INGENIERÍA INDUSTRIAL
AGOSTO, DE 2014
Actividades para el momento 2:
1. Realizar la lectura y observar el video sugerido para completar el desarrollo de la temática de la primera
unidad del curso de Prospectiva Tecnológica.
2. Realizar la asignación de roles de acuerdo a las necesidades del grupo. Se sugieren los siguientes roles:
líder, secretario(a), utileros(as) y vigía del tiempo.
3. Inicio estudio de caso:

En las dos últimas décadas la humanidad ha tenido que vivir grandes cambios que se han dado básicamente
por los avances tecnológicos en todos los niveles. Quienes nacimos en los años 80 hemos sido testigos de
este cambio y hemos tenido que vivirlos en carne propia, pero quienes nacieron a partir de los años 1990 y
2000 no se imaginan que antes escuchábamos música a través de walkman, la música venía en casetes, los
videos se grababan en casetes de video 8, que las películas las veíamos por medio de VHS y que las
imágenes en 3D eran un sueño, los teatros en casa ni se pasaban por nuestras mentes y estar comunicados
todo el tiempo a través de un teléfono móvil era una utopía.

Los anteriores son solamente algunos de los muchos ejemplos de los avances que gracias a la ciencia y la
tecnología se han dado en nuestro planeta.

Durante este momento el grupo de trabajo colaborativo se encargara de recolectar información y realizarán un
listado donde relacionen los cambios que se han dado desde 1980 hasta nuestros día.

Deben elaborar un cuadro donde mencionen el año de aparición, el año de desaparición y tecnología que la
remplazó.(Consultar la guía integradora de actividades que pueden encontrar en el entorno de conocimiento)
4. Realizar la lectura y recolección de información que servirá de apoyo al momento de abordar el caso que
se sugiere sobre los efectos de los nuevos avances tecnológicos en los entornos empresariales. Realizar la
revisión del siguiente video y lectura del siguiente artículo: Una cronología de más de 30 años de la
innovación en tecnología

Mira La Reacción Estos Niños Al Conocer Estas Antigüedades De Computador


5. El grupo de trabajo colaborativo deberá describir cada uno de los elementos, sus características principales
y el uso que se les daba.
6. El grupo de trabajo colaborativo deberá elaborar un informe donde describan en qué forma se dieron las
transiciones de estas tecnologías.
7. El grupo de trabajo colaborativo deberá mencionar cómo que han sufrido las consecuencias de estos
avances tecnológicos lograron sobreponerse. Por ejemplo, cómo lograron sobreponerse los fabricantes de
rollos fotográficos y de las cámaras de rollo ante la aparición de las cámaras digitales.
8. Cada uno de los integrantes del grupo deberá elaborar un ensayo donde describa los alcances de la
prospectiva tecnológica y su utilización para definir planes para estar preparados para enfrenta el futuro. Lo
anterior basados en el material de estudio ubicado en el entorno de conocimiento y correspondiente a la
Unidad 1. Este ensayo debe contener máximo dos páginas.
9. Quien haga las veces de secretario(a) deberá consolidar los aportes y preparar el documento para que
quién haga las veces de líder lo entregue a través del entorno de evaluación y seguimiento a través del link
Momento 2: Fase uno del trabajo colaborativo.
El Archivo debe ser nombrado de la siguiente manera: M2_Grupo#. Ejemplo: M2_Grupo3 y debe contener lo siguiente:

Portada
Introducción
Objetivos
Cuadro avances tecnológicos
Descripción de cada uno de los elementos, características y uso
Informe que describa la forma como se dieron esas transiciones
Informe donde mencionen como afrontaron los cambios tecnológicos algunas de las empresas afectadas
Ensayo Integrante 1
Ensayo Integrante 2
Ensayo Integrante 3
Ensayo Integrante 4
Ensayo Integrante 5
Conclusiones
Referencias bibliográficas

Forma:
Documento en Word
Utilización de las normas APA para la elaboración de trabajos escritos
No de páginas: máximo 20 en total.
1980-2012 – Una cronología de más de 30 años de la innovación en tecnología para eventos y
reuniones

Envía esta noticia a un amigo

Fecha Publicación: 12/04/2012 – © 2012 Corbin Ball Associates – The Meetings Technology Professionals.
Reproducido con permiso de Corbin Ball. Autor: Corbin Ball. Traducción: Event Planner Spain

• Ver más noticias de Corbin Ball


• Ver más noticias de medios sociales para eventos
• Ver más noticias de dispositivos móviles (smartphones, tablets, pda, etc.)
• Ver más noticias de tecnología para el sector de congresos y reuniones
• Ver más noticias de buenas prácticas para la organización de eventos

Los cambios tecnológicos de las últimas tres décadas han asombrado


tanto al sector de congresos y reuniones como a la sociedad en general.
Para ver hasta qué punto hemos llegado, pensé que sería ilustrativo
elaborar una lista cronológica de los principales hitos tecnológicos, con
los sociales en "negro" y las innovaciones tecnológicas relacionadas con
la industria de los eventos en "azul". Esta lista está lejos de ser completa,
así que ¡enviadme vuestros principales hitos tecnológicos para poder
incluirlos en ella!

1980
En todo el mundo había un millón de ordenadores en uso.

Conferon desarrolló un sistema de auriculares y buscapersonas inalámbricos para reuniones que


estaba diseñado para mejorar la comunicación in situ. Esto ocurrió antes del uso muy extendido de
radios portátiles.

Varias empresas especializadas en sistemas de inscripción (Galaxy Information Services,


CompuSystems y Registration Control Systems) ofrecieron al segmento de ferias de muestras y
exposiciones un sistema informatizado básico para la generación de credenciales y el intercambio de
datos de contacto (por medio de tarjetas de "crédito" plásticas en relieve). Antes de la aparición de
dichas tarjetas, los expositores apuntaban a mano los números de las credenciales de los asistentes,
que la empresa encargada del proceso de inscripción cotejaba luego con los datos de contacto.

Galaxy lanzó el primer sistema informatizado de inscripciones in situ. Utilizando 12 puestos de


inscripción que transmitían datos vía un módem de 1.200 baudios, esta innovación eliminaba la
necesidad de instalar una computadora central en el lugar de celebración.

En Brisbane (Australia), Ray Shaw de Intermedia importó componentes estadounidenses para


construir un ordenador CP/M. Escribió el programa "Camputer" que condujo a la versión 1 de
EVENTS, que con el tiempo se convirtió en Amlink. En el mismo se utilizó Events VI para gestionar
una conferencia con 400 delegados. El programa original era una base de datos plana que generaba
credenciales, listas de alojamiento, informes y cartas de confirmación. Hacía falta alrededor de una
semana para preparar el software para cada conferencia nueva.

1981
El Commodore VIC-20 irrumpió en el mercado —el primer ordenador en color por menos de 300$—
del que se vendió más de un millón de unidades. El monitor era un televisor, se almacenaban los
datos en una cinta de casete y las aplicaciones rompedoras eran videojuegos.

IBM lanzó el primer ordenador personal.

Se lanzó MeetingPro, el primer software de base de datos para el sector de congresos y reuniones
para la formación médica permanente, con cartas de confirmación personalizadas, credenciales
impresas con letra grande, listas de participantes precisas y seguimiento básico del mercado.

1982
Compression Labs empezó a comercializar sistemas de videoconferencia por 250.000$, con un coste
de conexión de 1.000$ por hora.

1983
Eric Orkin presentó Delphi Management Systems, el primer software completo para el sector de la
hostelería, diseñado para reuniones y grupos, incluyendo funciones para marketing y catering. En
1985 se convirtió en Newmarket Software.

Events V2 (que iba camino de convertirse en Amlink) se reescribió en PL/1, con lo que se podía
personalizar para cada evento en menos de un día. El software se ejecutaba en un ordenador MP/M
de 24 usuarios, que a su vez estaba conectado a una fotocomponedora de Compugraphic para
imprimir catálogos de abstractos, información sobre conferencias, etc.

1984
Apple volvió a lanzar el Macintosh, el primer ordenador fabricado en masa, con un ratón y una
interfaz gráfica.

Galaxy utilizó un solo microordenador, fabricado por Digital Systems Corporation, para controlar 120
puestos de inscripción en ferias de muestras y exposiciones.

Events V3 (que iba camino de convertirse en Amlink) se probó en un congreso tecnológico celebrado
en París. Fue la primera vez que se utilizó un paquete de software de gestión de reuniones en
Europa.

1985
Microsoft lanzó Windows 1.0 que se empezó a comercializar por 100$.

Se comercializaron los CD-ROM, con capacidad para almacenar el texto de 270.000 folios en un solo
disco.

El 15 de marzo de 1985, Symbolics, una empresa informática de Massachusetts, registró el primer


dominio de Internet, symbolics.com.

Phoenix Solutions presentó MeetingTrak 1.0, otro de los productos pioneros de base de datos para la
gestión de reuniones.

PCNametag, el primer software para generar credenciales, se estrenó en MeetingWorld de Nueva


York. Con una impresora de matriz de puntos era capaz de generar 120 credenciales por hora. Los
asistentes se agolparon para ver el producto.

1986
El primer virus que afectaba a los PCs de IBM fue uno del sector de arranque que se llamaba "Brain".

Eric Thomas desarrolló el primer programa de listas de mailing, denominado "LISTSERV".

Compaq comercializó el primer ordenador compatible con procesador i386.


E.J. Siwek creó y comercializó el primer software para generar planos de salas.

Judith Mathews fundó el Meeting Industry Microcomputer Users Group [grupo de usuarios de
microcomputadoras perteneciente al sector de congresos y reuniones]. Durante varios años, MIMUG
se reunía antes de la reunión anual de Meeting Professionals International (MPI). Las
demostraciones de software marcaron el principio de la formación tecnológica en la industria de los
eventos.

1987
Se creó la primera asociación enfocada en la tecnología para la industria de los eventos. La
asociación, cuyo nombre del que nadie se acuerda ahora, duró alrededor de dos semanas antes de
ser absorbida por MPI como el Computer Special Interest Group.

Se lanzó PowerPoint 1 (denominado originalmente "Presenter"). Sólo mostraba imágenes en blanco


y negro, tenía una sola transición y solo funcionada en ordenadores Macintosh.

1988
Empezó a operar la empresa conjunta "videotexto" de IBM y Sears bajo el nombre "PRODIGY".

Los códigos de barras de identidad aparecieron como la primera generación de sistemas impresos
de captación de datos de contacto para ferias de muestras y exposiciones.

Dieciséis cadenas hoteleras contribuyeron con 100.000$ para financiar una nueva empresa, The
Hotel Industry Switch Co., para conectar electrónicamente las empresas de sistemas de distribución
global, como Sabre, con los sistemas informatizados de reservas de los hoteles. THISCO se convirtió
en Pegasus, que actualmente procesa más de 300 millones de transacciones al mes.

1989
Desde 1987 hasta 1989, el número de máquinas de fax en el mundo aumentó en más de dos veces
para llegar a las 2,5 millones de unidades.

El número de ordenadores en uso en el mundo sumaba las 100 millones de unidades.

Quantum Computer Services, el sistema de tablón de noticias en Internet, se cambió de nombre para
pasar a llamarse America Online (AOL). Desde 1989 hasta 1998, el número de miembros de AOL
pasó de los 100.000 a los 14 millones.
PCNametag y LasersEdge desarrollaron un software para la generación de credenciales con una
impresora láser.

Se lanzó McNametag, uno de los pocos programas de software diseñados específicamente para el
sector de congresos y reuniones escrito para ordenadores Macintosh.

1990
Tim Berners-Lee inventó laWorld Wide Web.

1991
Las empresas informáticas comercializaban los ordenadores portátiles con anuncios en los que se
veían a los usuarios con sus "máquinas de libertad" al lado de una piscina.

PlanSoft comenzó a desarrollar Ajenis, el primer intento de homogeneizar las comunicaciones


relacionadas con las especificaciones de reuniones entre organizadores y hoteleros. Finalmente se
lanzó el software en 1995, pero no se adoptó de forma generalizada, en parte debido a la creciente
competencia de las primeras herramientas alojadas en la Web.

La School Home Office Products Association fue la primera asociación en usar tarjetas inteligentes
(tarjetas de plástico con chips integrados) para la captación de datos de contacto en su ferias de
muestras.

1993
A comienzos de 1993, la Web contenía 130 sitios web.

America Online y Delphi empezaron a conectar sus propios sistemas de correo electrónico a Internet,
lo que marcó el comienzo de la adopción a gran escala del correo electrónico de Internet como
norma mundial.

La división de ordenadores de Apple lanzó el primer PDA (asistente digital personal) que se llamaba
"Newton".

Se creó MPINet, el primer grupo de discusión online para profesionales del sector de congresos y
reuniones, como foro en CompuServe. El comité encargado de su puesta en marcha, integrado por
16 personas, se reunió en diciembre de 1993, y el servicio se lanzó en la Web un mes después.
Antes de cerrarse en 1997, debido al auge de los foros alojados en la Web, tenía 2.600 miembros.

1994
Laurence Canter envió el primer correo electrónico que podía considerarse como spam –"Green
Card Lottery 1994 May be the Last One!! Sign up now!! – lo que levantó un gran revuelo en la
comunidad de Internet. Como resultado, Carter perdió su empleo y su proveedor de servicio de
Internet canceló su cuenta.

Con el objetivo de hacer un seguimiento de los sitios web que les interesaban, dos estudiantes de
Stanford crearon "Jerry’s Guide to the World Wide Web" [La guía de Jerry para la World Wide Web],
que pronto pasó a llamarse Yahoo!

McGettigan Partners (ahora Maritz) introdujo el primer producto de software que hacía un
seguimiento de los gastos y el suministro de servicios de las reuniones. Luego se convirtió en Core
Discovery, que al principio sólo estaba disponible para los clientes de McGettigan. En 1998, la
empresa lanzó una versión actualizada con una interfaz web para el público en general, bajo el
nombre Real-Planner. En 1999, pasó a ser una empresa separada, StarCite, que comercializaba
soluciones alojadas en la Web para el suministro de servicios, la gestión de delegados y el
seguimiento de gastos.

Registration Control Systems y Galaxy introdujeron unas tarjetas de banda magnética para la
captación de datos de contacto en ferias de muestras y exposiciones.

1995
El número de hogares estadounidenses con uno o más PCs aumentó en un 16% en 1995, para
llegar a cerca de los 38 millones; 33 millones más que en 1994 y 25 millones más que en 1993.

Conferon creó una entidad separada, PlanSoft (que se conocería luego como Mpoint), el primer
motor de base de datos de espacios y peticiones de propuestas para reuniones, con buscador
incorporado. Se trataba de un consorcio singular compuesto por una empresa privada (PlanSoft), dos
asociaciones (MPI y la Asociación Norteamericana de Ejecutivos de Asociaciones), y tres empresas
hoteleras (Marriott, Sheraton y Hyatt). Plansoft.com se lanzó en Internet en 1997.

InterMedia, la feria de muestras de Reed, fue la primera en usar credenciales impresas con barras de
códigos bidimensionales, lo que permitió a los expositores captar de una credencial todos los datos
de contactos de clientes potenciales.
Holiday Inn lanzó el primer sitio web hotelero con un sistema de reserva y pago de habitaciones.

Aparecieron las primeras herramientas de inscripción online para reuniones; todas con código escrito
a mano por programadores.

Lee Travel asumió el control de Internet World Tradeshows para gestionar alojamiento. La empresa
lanzó el primer sitio web de alojamiento en 1996, que hacía un seguimiento en tiempo real de
bloques de habitaciones e inventarios. De Lee Travel surgió en 1998 b-there.com, uno de los
pioneros en productos de gestión de delegados, alojamiento y consolidación. Su producto empezó
llamándose ERS (Event Reservation System) y fue unos de los primeros productos de alojamiento e
inscripción basados en plantillas. Más tarde, StarCite compraría b-there.com.

Microsoft NetMeeting, una herramienta de colaboración alojada en la Web, se lanzó con Windows95.
Esta herramienta permitía a la gente utilizar sus ordenadores para "reunirse" y trabajar juntos desde
lugares remotos. Pronto le siguieron WebEx (1996), PlaceWare (1996) y otros, que también
proporcionaban funciones de audio y diapositivas y permitían compartir pantallas y archivos.

1996
El Hotel Miyako de San Francisco (ahora el San Francisco Radisson) incorporó el primer sistema de
petición de propuestas, desarrollado por Cardinal Communications.

El hotelero Bob Motley, junto con Brian Layton, fundaron Passkey, una de las empresas pioneras en
reservas online de habitaciones de hotel. La primera reunión, con una sola sede, que se organizó
con Passkey fue para 900 personas en el Hotel Sheraton de Nueva Orleans en 1998.

Cardinal Communications creó el Meeting Industry Mall, el primer portal interactivo alojado en la Web
para la industria de los eventos. De ello surgió MIMlist, el primer servidor de listas para profesionales
del sector de congresos y reuniones.

1997
La mayoría de las principales empresas hoteleras y asociaciones del sector de congresos y
reuniones desarrolló un sitio web.

RegWeb lanzó la primera herramienta de inscripción basada en plantillas, desarrollada por Cardinal
Communications. Dicha herramienta permitía a los organizadores crear, y personalizar hasta cierto
punto, páginas de inscripción, sin el concurso de un diseñador web. Fue el precursor de los miles de
proveedores de servicios de aplicación para la industria de los eventos que aparecerían después.

1998
Las oficinas de Google se montaron en septiembre en un garaje de Menlo Park (California) y, en
diciembre del mismo año, fue reconocido como uno de los "100 principales sitios web" por PC
Magazine.

ExpoCardWeb presentó una herramienta alojada en la Web que permitía a los expositores acceder a
los datos de contacto de clientes potenciales.

AllMeetings.com introdujo una herramienta online gratuita para el análisis de costos generados por
las reuniones.

Lee Travel lanzó la primera generación de un producto online para la gestión integral de alojamiento,
inscripciones y reserva de pasajes de avión que incorporaba tarifas por zonas.

En abril de 1998 se celebró el evento Open Source Summit. Fue un evento clave que fomentó
notablemente la idea del software gratuito y desarrollado públicamente (de fuente abierta). Esto ha
llegado a convertirse en un modelo de desarrollo de software más rápido y barato, incluyendo los
sistemas operativos Linux y Android y cientos de miles de aplicaciones móviles.

1999
Varios expertos predijeron el colapso total de los sistemas informáticos debido al efecto 2000 (la
incapacidad de los ordenadores más antiguos para distinguir entre el año 1900 y el año 2000).
Llegado el Año Nuevo apenas se detectaron problemas, pero por el temor generalizado se llevaron a
cabo a escala global importantes actualizaciones de los sistemas informáticos del mundo
empresarial.

HotDatesHotRates.com se convirtió en uno de los primeros sitios web en ofrecer "existencias


sobrantes" –espacios para reuniones y habitaciones de hotel– normalmente con poca antelación y
con descuento.

En septiembre de 1999 seeUthere.com lanzó uno de los primeros productos de proveedor de


servicios de aplicación para la planificación de eventos (alquilando aplicaciones alojadas en la Web,
frente al software instalado directamente en un ordenador), con un sistema de pago de cuotas de
inscripción que funcionaba con tarjeta de crédito. Casi al mismo tiempo, Evite.com presentó un sitio
web centrado en el consumidor, que luego fue comprado por Ticketmaster.

2000
En el 60% de los hogares estadounidenses había al menos un ordenador.

El gusano/virus Love Bug infectó a 2,5 millones de PCs, causando daños y perjuicios económicos en
torno a los 8,7$ mil millones.

Los proveedores de servicios de aplicación, alimentados por los fondos de capital de riesgo,
irrumpieron en el campo de la organización de eventos y reuniones. Algunas de estas empresas no
sobrevivirían el estallido de la burbuja de los punto com en 2001.

Se celebró ExpoExchange, la primera feria de muestras virtual.

SpotMe presentó su dispositivo móvil de networking en Londres, que permitía a los asistentes
visualizar las imágenes y los datos de contacto de la gente que se encontraba dentro de un radio de
10 metros. Luego se agregaron otras funciones que permitían a los usuarios obtener información
sobre sesiones y listas de asistentes, así como para realizar votaciones y encuestas, entre otras. Fue
el precursor de muchas de las aplicaciones móviles para eventos disponibles actualmente.

GetThere Direct Meetings introdujo la primera herramienta online de reservas para grupos. Le
siguieron en 2003 otras herramientas de reserva de bloques de habitaciones, como Groople y Hotel
Planner, sobre todo para reuniones pequeñas.

El Consejo para la Industria de las Convenciones implementó la iniciativa de APEX (intercambio de


prácticas aceptadas), que estableció las primeras recomendaciones para el sector de congresos y
reuniones.

2001
Apple presentó el iPod, que luego se convertiría en el reproductor MP3 más popular de la historia, lo
que instigó a su vez cambios radicales y disruptivos en la industria de la música.

Se lanzó Wikipedia, el sitio web de referencia más grande y popular del mundo. Actualmente
contiene más de 17 millones de artículos redactados de forma colaborativa por voluntarios de todo el
mundo.
El uso de herramientas online colaborativas y para reuniones, tales como WebEx y PlaceWare
(ahora Windows LiveMeeting) experimentó un fuerte repunte después de los ataques terroristas del
11 de septiembre en Nueva York.

El 12 de noviembre, Uthere.com y TRX ResAssist presentaron los primeros productos online para la
reserva en tiempo real de pasajes de avión para grupos.

StarCite lanzó la primera herramienta bidireccional alojada en la Web para peticiones de propuestas
en tiempo real para salas de reuniones y habitaciones de hotel.

Un creciente número de turistas de negocios utilizaba sitios web de viajes, como Expedia (lanzado
en 1996), Travelocity (1996) y Orbitz (2001), entre otros, para buscar alojamiento hotelero barato.
Las reservas "fuera del bloque" crearon problemas para los organizadores en forma de
cancelaciones. Para combatir el problema, Hilton lanzó en 2004 su Programa de Identificación de
Reservas para Grupos, lo que permitía a los organizadores a comparar listas de inscripciones con las
reservas de hotel y, de este modo, saber a ciencia cierta quiénes de los asistentes iban a alojarse en
qué hotel.

2002
Hyatt presentó E-mmediate Meetings, una herramienta online para reservas, diseñada para
reuniones pequeñas. De ésta surgió E-mmediate Response, que ofrecía por primera vez una
conexión bidireccional en tiempo real entre un sitio web de peticiones de propuestas (en este caso
StarCite) y el sistema de reservas de un hotel.

Se desarrollaron herramientas de networking alojadas en la Web para los asistentes a las reuniones
y los eventos. La primera fue Rio, desarrollada por Columbia Resource Group. Fue seguida por
IntroNetworks y Smart Event de ExpoExchange. Similares a las redes sociales, estas herramientas
ayudaban a los asistentes a encontrar a gente con intereses afines en las reuniones y los eventos.
Fueron los precursores del sector de congresos y reuniones de Facebook y otros sitios web sociales.

Las empresas tecnológicas son las primeras en utilizar web logs móviles (MoBlogs) en el sector de
congresos y reuniones.

2003
Intel incorporó el Wi-Fi (wireless internet receiving capability) en su procesador Centrino, lo que abrió
la puerta a la rápida adopción de Internet inalámbrico en los años venideros.

Se desarrollaron unas normas para servicios Web, lo que hizo que fuera mucho más fácil para
distintos programas online compartir datos vía APIs (interfaces de programación de aplicaciones).
Esto permitía desarrollar más fácil y rápidamente bases de datos y software online.

En mayo, el volumen de SPAM de correo electrónico excedió por primera vez el de correos legítimos.

Se desarrollaron y se afinaron varios programas de gestión estratégica de reuniones (conocidos en


aquel entonces como "productos de consolidación").

Intellibadge fue la primera empresa en utilizar la RFID (identificación por radiofrecuencia) para hacer
un seguimiento del público en la zona de exposición o las salas de reuniones de los eventos de la
IEEE.

Más de 6.000 hoteles instalaron el Wi-Fi (fidelidad inalámbrica), o acceso de alta velocidad a Internet.

APEX presentó su primer producto (el glosario online:http://glossary.conventionindustry.org/). Luego


llegarían más productos (normas voluntarias) abarcando antecedentes de reuniones, perfiles web,
peticiones de propuestas, alojamiento/inscripción y reuniones sostenibles.

2004
Google indexó más de ocho mil millones de páginas en la Web.

Nació Facebook (solo para estudiantes de Harvard).

El volumen de reservas online de Hilton Hotels excedió por primera vez el de sus centros de
llamadas.

PlanSoft y SeeUThere, dos de los proveedores más punteros de tecnología para eventos, se
fusionaron para crear OnVantage.

2005
Se estrenó YouTube, el primer sitio web para compartir videos, que desde entonces se ha convertido
en uno de los sitios más populares de la Web. En 2010, YouTube utilizó más ancho de banda que
toda la Web en 2000.
Las dos empresas más veteranas en el sector del desarrollo de software para reuniones (Peopleware
y Amlink) se fusionaron bajo la marca Amlink.

2006
Se lanzó Twitter, el sitio de microblogs con un máximo de 140 caracteres por mensaje.

En mayo, iTunes celebró la descarga del milmillonésimo archivo.

La industria de los eventos empezó a utilizar la tecnología Web 2.0 (que luego se llamaría "medios
sociales"), incluyendo blogs, blogs de vídeos y wikis (sitios web interactivos).

Se fusionaron los dos principales proveedores de tecnología para reuniones, OnVantage (el
resultado de la fusión entre PlanSoft y SeeUThere) y StarCite (el resultado de la fusión entre este
último, b-There y RegWeb).

Los proveedores de tecnología de telefonía móvil, como LogOn, desarrollaron productos para
reuniones, incluyendo una variedad de herramientas como directorios de productos, funciones de
networking, agendas y sistemas interactivos de votación que funcionaban vía teléfonos móviles
normales.

2007
Con el lanzamiento del iPhone en junio, Apple revolucionó el sector de la telefonía móvil. En los
próximos cuatro años y medio se vendieron más de 74 millones de unidades.

Google lanzó GoogleDocs, con hojas de cálculo y procesadores de textos gratuitos alojados en la
Web.

La Conferencia South by Southwest (SXSW), celebrada en Austin, Texas, fue la punta de inflexión de
la popularidad de Twitter, cuyo volumen de "tuits" aumentó de 20.000 a 60.000 al día (en 2011, se
alcanzaron los 200 millones de "tuits" al día).

2008
Amlink se fusionó con Certain Software el 1 de abril.

Active Networks adquirió dos de las principales empresas de inscripción online, RegOnline y
WindgateWeb.

2009
La televisión digital se convirtió en el estándar de emisión en los EE.UU. y en otras partes del mundo,
abriendo así la puerta a servicios de televisión alojados en la Web.

Seasite.com lanzó la primera herramienta alojada en la Web de peticiones de propuestas, diseñada


para ayudar a los profesionales del sector a encontrar a proveedores de cruceros para el sector de
congresos y reuniones.

2010
Apple presentó el iPad, otra revolución del ordenador portátil tipo "tableta".

Había 4,7 mil millones de abonados a un servicio de telefonía móvil (dos de cada tres personas en el
planeta). Había más gente con un teléfono móvil que personas con acceso a agua corriente o a un
cepillo de dientes.

Skype desarrolló las videoconferencias de alta definición. Esto permitía a los organizadores acceso a
una señal de vídeo de calidad y gratuita para el vídeo streaming de sus eventos.

Hubo un gran auge de aplicaciones móviles diseñadas específicamente para eventos y ferias, que
coincidió con la aparición de cientos de empresas nuevas que proporcionaban este tipo de servicios.

2011
En octubre, Amazon lanzó la tablet Kindle Fire/eReader de la que logró vender más de 25 millones
de unidades antes de finales de año.

Había más de 600.000 de aplicaciones para el iPhone/iPad y más de 400.000 para Android.

Se descargaban diariamente más de 5,6 millones de aplicaciones para el iPhone.

Había más de 800 millones de usuarios de Facebook (más de una de cada 10 personas en el
planeta).

Se desataron grandes revoluciones en Oriente Medio gracias a los teléfonos móviles y los medios
sociales.
Durante las vacaciones de Navidad se descargaron 1,2 mil millones de aplicaciones.

La encuesta FutureWatch 2011, entre otras, indicó que más del 80% de los profesionales del sector
de congresos y reuniones utilizaba un teléfono inteligente u otro dispositivo móvil en su trabajo. Sin
embrago, un porcentaje de organizadores relativamente bajo (el 9%) había utilizado aplicaciones
móviles para sus propias reuniones.

Se celebró la primera "cata de vinos virtual" en Camp Europe, utilizando Google Hangouts (un
producto gratuito para realizar videoconferencias desde múltiples lugares). A los asistentes en el
lugar principal en Londres, y a los que se encontraban en Polonia y Suecia, se les proporcionó el
vino a catar. Por medio de esta herramienta gratuita para video conferencias, los asistentes en todos
los lugares escuchaban/veían al anfitrión describir el vino, mientras inspeccionaban, olían y cataban
cada vino. Los asistentes utilizaron los cinco sentidos.

2012
Active Networks compró StarCite. Las fusiones anteriores en las que estuvieron implicadas estas dos
empresas incluyeron algunos de los principales pioneros de la tecnología para el sector de
congresos y reuniones –RegWeb, b-there, seeUthere, PlanSoft, OnVantage, RegOnline y
WingateWeb–, lo que constituyó otro paso en la consolidación de los líderes en el sector.

Esta lista está lejos de ser completa. Ruego me enviéis vuestros hitos en el campo de la tecnología
para eventos.

Quisiera agradecerles a los siguientes pioneros en la materia, cuyas contribuciones y rápidas


verificaciones hicieron posible este artículo: Janet Christodoulou, Coleman, Bill Duncan, Doug Fox,
Bruce Harris, Deb Huffington, Peggy Lee, Mike Malinchok, Rodman Marymor, John Pino, Jeff Rasco,
Elaine Rickman, E.J. Siwek, Bruce Small, Ray Thackery, Ed Tromczynski, Nick Topitzes, Robert
Walters y Dick Zeller.

Consulta las siguientes noticias para seguir informado de las tendencias tecnológicas en el
sector de eventos durante 2013 y 2014:

 20/03/2014. Las geo-vallas, los sensores de proximidad y las ibeacons: ¡pronto en un evento cerca de ti!
 13/02/2014. Ordenadores vestibles y ultra portátiles para eventos

 08/11/2013. Las inspecciones in situ simplificadas: cuatro aplicaciones gratuitas para racionalizar el proceso

 10/10/2013. Catorce tendencias para 2014 en el sector de congresos y reuniones

 01/09/2013. ¡Viva el código abierto! Herramientas gratuitas de desarrollo web y nuevas aplicaciones de bajo
coste para reducir el coste de la gestión de reuniones

 01/08/2013. El networking social móvil para mejorar la experiencia de los participantes

Comentarios:

Muchas gracias por la información; a decir verdad me sirvió mucho y me encantaría seguir
sacando información de esta página que me ayudó muchísimo (Randal Bazzano, 12 de septiembre
de 2013).

Es una cronología coherente y una excelente informacion (Marisol, 29 de agosto de 2013)

Excelente reseña; me ayudo mucho .... Gracias (Sara, 5 de abril de 2013)

Gracias por compartir tus conocimientos; me ayudaste mucho en mi tarea. (Gloria Guadarrama
Carmona, 22 de marzo de 2013)
Muy completa la información; me ayudará demasiado en mi estudio. Gracias (Carlos Andrés
Duque, 13 de marzo de 2013)

Excelente reseña, muchas felicidades. Saludos desde Italia (Angie, 12 de marzo de 2013)

Está muy bien la información (Marcela, 07 de noviembre de 2012)

Qué buena investigación sobre la cronología de las computadoras a la fecha actual, ya que esta
misma nos servirá para que nuestros alumnos conozcan lo que ellos utilizan entre servicios y
dispositivos recientes o de redes sociales. Gracias por esto. Que Dios los siga iluminando para
continuar con esto que les gusta y lo comparten... (Rene Meza Hurtado, 11 de octubre de 2012)

Buena reseña… me sirvió mucho y es la más completa en lo que voy buscando en Internet...
gracias (Anita Gabriela, 29 de agosto de 2012)

Excelente reseña sobre los 30 años de innovación. Felicitaciones. Saludos desde fppt.com
(Julian, www.fppt.com, 12 de marzo de 2012)

Si quieres, puedes comentar esta noticia


Nombre Email

Enviar comentario

• Ver más noticias de Corbin Ball


• Ver más noticias de medios sociales para eventos
• Ver más noticias de dispositivos móviles (smartphones, tablets, pda, etc.)
• Ver más noticias de tecnología para el sector de congresos y reuniones
• Ver más noticias de buenas prácticas para la organización de eventos

Etiquetas, proveedores para


eventos: Alojamiento Asociaciones Catering Cruceros Espacios Formación Hoteles Informática Marketing Person
al Salas Vídeos

Etiquetas, sección de
noticias: 2006 2007 2008 2009 2010 2011 2012 2013 2014 Alojamiento Android AOL Apple Asociación Austra
lia Avión Calidad California Captación Catering Clientes Competencia Comunicación Concurso Consumidor Digi
tal Empleo Encuesta Europa Facebook Formación Google Gratuito Hilton Hostelería Hotel Hotelero Hoteleros I
BM Inalámbrico Informática Innovación Inscripciones Interactivo Internet Investigación iPhone iPod Italia Kindle
Lanzamiento Londres Marketing Medios Música Navidad Organización París PC Piscina Polonia Portal PowerP
oint Prácticas Reservas Reunión Sheraton Social Software Suecia Tablet Tecnología Televisión Tendencias Twit
ter Vacaciones Vinos Virtual Web Wikipedia Youtube

Glosario, sección de noticias: Ancho de banda APEX Aplicación Base de


datos Celebración Conferencia Congreso Credencial Cronología Evento Exposición Feria Feria de
muestras Foro Grupo de discusión Herramienta alojada en la Web Identificación por radiofrecuencia Industria de los
eventos Inscripción online iPad Lugar de celebración Mailing Medios
sociales Mp3 MPI Networking Online PDA Programa Proveedor RFID Sector de congresos y reuniones Sector
de la hostelería Sede Señal Spam Streaming Tecnología para eventos Teléfono inteligente Vídeo Vídeo
streaming Videoconferencia Web 2.0 Wi-Fi Zona de exposición

Número de visualizaciones de esta noticia: 75,074

http://www.eventplannerspain.com/noticias-eventos-Espa%C3%B1a/2166/1980-2012-Una-cronolog%C3%ADa-de-m%C3%A1s-de-30-a%C3%B1os-de-la-
innovaci%C3%B3n-en-tecnolog%C3%ADa-para-eventos-y-reuniones
Las 25 innovaciones más importantes de los últimos 25 años
Visite nuestra nueva página www.revistacredencial.com
En 1986, año en el que apareció nuestro primer número, nadie hablaba de celulares, nanotecnología e Internet, y conceptos como biología
computacional y Viagra eran absolutamente desconocidos. El mundo ha cambiado. Y bastante. Pues bien, para celebrar nuestras bodas de
plata, nos pusimos a la tarea de establecer las innovaciones más importantes responsables de ese cambio. A continuación, los 25 inventos y
descubrimientos que en este cuarto de siglo transformaron el planeta.

¿QUIÉNES ELIGIERON LAS 25 INNOVACIONES?


Aquí está nuestro jurado, compuesto en su mayoría por científicos del Departamento Administrativo de Ciencia, Tecnología e Innovación,
Colciencias. Nos ayudaron también Emilio Yunis, autor del libro ¿Por qué somos así?; Daniel Rodríguez, director de Wayra Colombia; y Polkan
García, director de innovación de utura Networks, la compañía que produce Campus Party.
De izquierda a derecha, Galo Tovar, de la dirección de desarrollo tecnológico; María Cristina Durán, del programa de ciencias de medio
ambiente; Yesid Ojeda, del programa de investigación en energía y minería; Sandra Ramírez, jefe de comunicaciones; Gisele Manrique,
secretaria general; Jorge Alonso Cano, director de desarrollo tecnológico e innovación; Jaime Restrepo Cuartas, director general; Emilio Yunis,
genetista; Sonia Monroy, directora de redes del conocimiento; Juan José Trujillo, subdirector general; Miguel Tovar, del programa de ciencias
básicas; Carlos Ladino, asesor del programa de ciencias básicas; Mauricio Rodríguez, del programa nacional de biotecnología, Daniel
Rodríguez, director de Wayra Colombia; Martha Vives, del programa de estudios científicos de la educación; y Diego Otálora, del programa de
ciencias básicas.

Un cuarto de siglo de conocimiento


Entramos a una nueva etapa en la historia del conocimiento en Colombia. Llevamos más de cuarenta años intentando que nuestro país tenga
capacidades en ciencia, tecnología e innovación, y aunque ha sido un proceso realizado con las uñas, se ha logrado crear una comunidad
científica que hoy en día puede mostrar 4.075 grupos de investigación reconocidos, 90 centros de desarrollo tecnológico autónomos, 10
centros de excelencia, 17.000 investigadores inscritos, 5.200 doctores, 7.000 personas con maestrías de investigación y un volumen de
proyectos creciente, que en 2011 superó la cifra de 12.000 propuestas.
El presidente Santos acogió la idea de fortalecer el desarrollo científico del país, determinó que el 10% del sistema general de regalías fuera
para apoyar investigación y desarrollo y decidió que la innovación fuera una de las locomotoras para la transformación social y productiva del
país.
Es, pues, un buen momento para hablar de avances, ciencia y tecnología. De ahí que el equipo de Colciencias se sienta orgulloso de unirse a
REVISTA CREDENCIAL en la celebración de este aniversario. Después de interesantes discusiones y debates, aquí están las que consideramos
las innovaciones más importantes de este cuarto de siglo. Ya veremos qué nos deparan los 25 años próximos.
Jaime Restrepo Cuartas
Director de Colciencias

10 inventos que nos hicieron más fácil la vida


Pueden no tener la relevancia de las 25 innovaciones a las que nos referimos en este informe. Pero qué difícil que nos sería vivir sin las
siguientes diez creaciones.

-Cámara digital: salió al mercado en 1986 con un costo altísimo. Tres años después, durante la Guerra del Golfo, los reporteros gráficos
empezaron a usarla, pero sólo se hizo popular entre la gente común en la pasada década, cuando alcanzó precios normales. Una pregunta:
¿cuándo fue la última vez que usted compró un rollo?
-Photoshop: lanzado en 1990, este programa permite trabajar los documentos (normalmente fotografías) como si se tratara de lienzos, en los
que es posible pintar, retocar y hacer todo tipo de modificaciones. Gracias a él, ahora todo el mundo sale perfecto y hermoso en las fotos.
-Realidad virtual: en 1989, Atari sacó al mercado la primera máquina de juego que generaba en quien la usaba el efecto de estar en un
mundo distinto, a través de tecnología 3D. Hoy, muchísimo más avanzada, la realidad virtual se usa en la medicina, la simulación de vuelos, el
urbanismo y el entretenimiento.
-Touchscreen: nada más ni nada menos que la cada vez más común pantalla táctil, que usamos en teléfonos inteligentes, iPods,
computadores y juegos electrónicos. Puesta en el mercado a finales de los 80, continúa su lucha por quitarle el poder a los teclados. ¿Lo
logrará?

-Wi Fi: bastante joven para ser tan popular: en 1999, Nokia y Symbol Technologies hicieron una alianza que tan sólo en 2003 tomó el nombre
de Wi Fi, y que, como el mundo sabe, ofrece conexión inalámbrica para dispositivos electrónicos. Ahora no hay bar, restaurante y café, que no
ofrezca este servicio.

-LED: el Light Emitting Diode es un diodo luminoso que se ha convertido en una de las formas de iluminación más comunes hoy. Aunque fue
inventado en 1927 y sólo se comenzó a usar en los 60, fue en los 90 que al fin consiguió un alto brillo completamente blanco. Salga a la calle.
Buena parte de las luces que va a ver, seguramente serán LED.

-DVD: en 1996, estos discos ópticos de almacenamiento de datos, reconocidos por su gran calidad tanto de sonido como de imagen,
remplazaron para siempre a los casetes de VHS (por no hablar de los Beta, ¿alguien los recuerda?).
-USB: el Universal Serial Bus (bus universal en serie) apareció en 1996 y, con los pequeños formatos de sus memorias y amplia capacidad de
almacenamiento, significó el fin de los disquetes. ¿O es que usted todavía los usa?
-Redes sociales: habrá muchas, pero cuando pensamos en ellas sólo una viene a nuestra mente. ¿Y es que hay algo más divertido que dar de
vez en cuando un paseo por Facebook (2004), para enterarnos de lo que pasa en las vidas de nuestros amigos? Bueno, la otra red de
importancia es Twitter (2006), favorita de nuestros políticos.
-Google: el motor de búsqueda más usado en el mundo. O también: el que todo lo sabe (ha hecho historia una frase que dice: 'Google es Dios'.
Bueno, no es para tanto, pero...). Puesto en internet el 27 de septiembre de 1999, se convirtió en el colaborador de todos los estudiantes a la
hora de hacer tareas y muchos dicen que significó el fin de las enciclopedias.
INTERNET: CONECTADOS CON EL MUNDO
La famosa Red llegó para cambiar definitivamente nuestras vidas, desde la forma en que nos comunicamos hasta la forma en que
consumimos.

¿Cuándo fue la última vez que escribió una carta, la metió en un sobre, la estampilló y fue hasta la oficina de correos para que la mandaran a
su destinatario? ¿Ha dejado de ir a los bancos para pagar sus facturas porque puede hacerlo desde su computador? ¿Recuerda la última vez
que consultó un dato en el tomo de una enciclopedia en lugar de preguntárselo a Google?
Gracias a Internet, ahora mandamos correos electrónicos, hacemos compras sin salir de la casa y resolvemos nuestras dudas en cuestión de
segundos: pocas cosas han causado un impacto tan grande en los últimos años como este conjunto de redes de comunicación que conecta
computadores en cualquier parte del mundo para el intercambio de información por medio de un lenguaje común denominado TCP/IP.
Creada en la década de los 60 con fines militares, la difusión pública de Internet se hizo en 1986, y desde entonces ha cambiado la educación,
la investigación, el comercio, el trabajo y el tiempo libre trascendiendo las fronteras físicas y diluyendo las distancias entre las personas. Con
su creación, se han transformado desde las industrias ―la de la música es un buen ejemplo de ello― hasta las relaciones entre las personas,
que ahora se mantienen en contacto por medio de las redes sociales, donde comparten información multimedia y están al tanto de sus amigos
y colegas.
Aunque la cobertura de Internet aún no es universal, su breve historia ha demostrado que es un campo fértil para nuevos desarrollos que
seguirán cambiando el mundo. En este sentido, Martha Vives, de Colciencias, sostiene que en el futuro "se disminuirá cada vez más la brecha
digital, se incrementarán las empresas y los programas de educación virtual, así como las instituciones educativas no presenciales, las cuales
usarán más los laboratorios remotos, y se tendrá más capacidad para manejo de datos". En pocas palabras, habrá cada vez más migración
hacia los ambientes virtuales. En un mundo virtual, estar en Internet no sólo es cuestión de adaptación sino también de necesidad.

"Los usuarios pasan la mitad del día en Internet y las marcas deben estar donde sus usuarios están"
Andrés Rodríguez, country manager de Ariadna Colombia.
"Hoy en día un consumidor cualquiera tiene a mano toda la información de un producto sin necesidad de ir a la tienda. Puede ver sus
comerciales en Youtube al tiempo que encuentra opiniones de otros usuarios en la misma red social. Puede ir a Google y leer desde la página
oficial de la compañía hasta blogs con opiniones de expertos. Puede estar en Facebook y conocer de primera mano los lanzamientos, políticas
o anuncios, al tiempo que entra en conversación directa con la marca (para bien o para mal). Los usuarios están pasando la mitad de su día en
Internet y las marcas deben estar donde sus usuarios están".
ALMACENAMIENTO DE ENERGÍA: CON LAS PILAS PUESTAS
En los últimos años, el crecimiento del uso de teléfonos celulares y toda clase de objetos móviles e inalámbricos, llevó a la humanidad a buscar
nuevas formas de guardar la mayor cantidad de energía en baterías cada vez más mínimas. Claro, otra razón fue el inminente riesgo
ambiental.

¿Almacenamiento de energía? Carlos Arturo Ávila, experto en Física experimental de altas energías y profesor de la Universidad de los Andes,
lo define así: "Es el uso de dispositivos o sistemas que permitan conservar cierta cantidad de energía potencial para posteriormente ser
liberada en una aplicación determinada. Un ejemplo sencillo es el de un resorte. Cuando se oprime y se mantiene comprimido, se está
almacenando energía, que posteriormente podemos usar en el momento en que consideremos apropiado, soltando el resorte". Y después,
añade: "Un niño comprime un resorte cuando le da cuerda a un juguete; pues bien, posteriormente libera esa energía acumulada produciendo
que el juguete se mueva".
El almacenamiento de energía es tan antiguo como la humanidad misma. Ya en 1800, el italiano Alessandro Volta consiguió desarrollar
parcialmente la pila eléctrica. Y aunque ha pasado bastante tiempo y la tecnología de almacenamiento de energía ha avanzado muchísimo, la
pila ―la batería― sigue siendo el más clásico ejemplo de este adelanto tecnológico. "Es un dispositivo que almacena energía eléctrica, usando
procedimientos electroquímicos, y que luego la devuelve casi en su totalidad. Este ciclo puede repetirse un determinado número de veces. Se
cumplen ciclos de carga y descarga", anota Yesid Ojeda, ingeniero químico que trabaja en el Programa Nacional de Investigaciones en Energía
y Minería de Colciencias.
Ahora bien, como lo anota el mismo Ojeda, "la situación actual del mundo pone en evidencia una gran preocupación sobre los procesos de
generación y utilización de la energía, debido a los impactos ambientales que generan, lo que es un llamado a incrementar la eficiencia
energética y la búsqueda de nuevas alternativas de energía".
Pero la otra preocupación se relaciona con el uso de elementos que necesitan funcionar sin estar conectados. Es, en buena medida, la
producción de celulares, computadores portátiles, cámaras y sistemas de audio, lo que ha movido al mundo científico a desarrollar formas de
almacenar grandes cantidades de energía en pequeños espacios. Y lo ha logrado. No por nada, cada vez tenemos que poner a 'cargar' menos
nuestros celulares, por ejemplo. Pero todavía falta. De ahí que el interés por buscar formas de almacenamiento siga creciendo inmensamente.
En este cuarto de siglo aparecieron conceptos como el de los ultracondensadores (condensadores electroquímicos que poseen una densidad
energética inusualmente alta), las centrales hidroeléctricas reversibles (usan la energía que producen para producir más energía sobre el
agua), las baterías de zinc-aire (dependen del oxígeno de la atmósfera para generar una corriente), las de ion-litio (ligeras y de gran capacidad
energética) y el vehículo solar (motor eléctrico alimentado con energía del sol). Para el futuro se habla ya de buscar formas de almacenar la
energía que produce nuestro cuerpo, la que generan nuestro pasos, la del calor de los carros y, por supuesto, la de las tormentas eléctricas.

"El almacenamiento de energía juega un papel importante en los proyectos de fuentes renovables"
Luis Fabián Ocampo. Coordinador del grupo de gestión de proyectos del IPSE (Instituto de planificación y promoción de soluciones energéticas
para las zonas no interconectadas).
"Hoy, en las comunidades indígenas más recónditas del país se encuentran equipos celulares de última tecnología, que tienen incorporada su
batería de larga duración y en algunos casos son recargados a través de sistemas solares. Tengo la percepción de que la última batería que
compré ha mejorado los arranques de mi carro, haciéndolos más rápidos y confiables. Además, he estado varias semanas por fuera de la
ciudad y al regreso el auto encendió como si nada. El almacenamiento de energía juega un papel importante en los proyectos energéticos que
tienen como base el uso de fuentes renovables en las zonas aisladas del país".

TELEFONÍA CELULAR: DISPONIBLES A TODA HORA


Gracias a un aparato que cada vez se hace más pequeño y sofisticado, nos acostumbramos a estar siempre conectados y nos olvidamos para
siempre de los teléfonos públicos.

Aquel que en 1986 compró uno de esos inmensos teléfonos celulares que empezaban a comercializarse en el mundo, qué iba a imaginar que
25 años después la tecnología de esos aparatos iba a llegar a los límites de hoy. Un celular modelo 2011 es mucho más que un teléfono: es un
pequeño computador, un ayudante que cada vez nos resuelve más la vida. Ni siquiera el mismo Martin Cooper, a quien se le considera el
padre del teléfono móvil, llegó a pensar en lo tecnificado y necesario que aquel dispositivo iba a ser. Él sólo ―tal y como alguna vez lo
confesó― quiso hacer algo parecido a lo que usaba el Capitán Kirk en la serie Star Trek. Pero en estos 25 años el mundo y la tecnología
corrieron a mil. El celular, para muchos, puede ser el gran objeto, el aparato por antonomasia, del último cuarto de siglo.
Habla Edison Pérez, investigador de Colciencias: "Le ha brindado a las personas comunicación inmediata, móvil, y acceso en tiempo real a la
información. Esta es una invención que día a día sufre innovaciones significativas, desde el desarrollo de redes inalámbricas cada vez más
eficientes y que trasportan mayores volúmenes de datos y voz, la opción de Internet móvil y todo el concepto de aplicaciones móviles, hasta
los actuales desarrollos complejos de software para aplicaciones en redes sociales y banca móvil".
Pero ¿qué es realmente un teléfono móvil? Marcelo Ruiz, experto en telecomunicaciones y director regional de la firma Frost & Sullivan, dice:
"La telefonía celular básicamente está formada por dos grandes partes: una red de comunicaciones (o red de telefonía móvil) y los terminales
(o teléfonos móviles) que permiten el acceso a dicha red. El teléfono móvil es un dispositivo inalámbrico electrónico. Se denomina celular
debido a que el servicio funciona mediante una red de celdas, donde cada antena repetidora de señal es una célula. Su principal característica
es la ubicuidad, que permite que nos comuniquemos desde cualquier lugar".
Según Pérez, el auge de la telefonía móvil se dio a partir de 1990 y en América Latina arrancó dos años después.
¿Y el mañana? Falta muy poco para que en nuestro celular podamos ver televisión de alta definición, así como para que a través de él
revisemos contadores de agua y luz y encendamos alarmas. "Y para que lo usemos también como una billetera electrónica y no tengamos que
usar tarjetas ―añade Ruiz―. En el futuro la sociedad va a ser móvil y ubicua; tendremos toda la información personal y profesional en un
dispositivo".

"La revolución de la telefonía celular nacerá en los países emergentes"

Hans Christian Boehlke, director comercial de Celumanía.


"Sólo vemos la punta del iceberg de la gran revolución que viene. La telefonía móvil cambió mi vida. Celumanía es un integrador de servicios
de valor agregado tanto para el mercado masivo como corporativo. Por el lado masivo, de la mano de los operadores celulares, la empresa
busca implementar servicios que son útiles para el común de la gente. Por ejemplo, ofrecemos a través de nuestras comunidades vía SMS
servicios donde les permitimos publicar a las personas lo que hacen o lo que están vendiendo para que otras personas los contraten o les
compren. En la parte corporativa, ofrecemos servicios a empresas que quieren mantener comunicación constante con sus accionistas, clientes,
proveedores y empleados. Queremos hacer parte de esta revolución de la telefonía celular, que nace de los países emergentes".

GPS: LOS MAPAS DE HOY


Los conductores cada vez preguntan menos por direcciones en la calle. Un pequeño aparato los lleva sin error hasta su destino.
Fotografía: Manuel Rodríguez

Aunque existe comercialmente desde hace más de una década, el GPS (Global Positioning System, o Sistema de Posicionamiento Global) aún
parece un elemento del futuro. ¿O es que acaso no resulta increíble poder determinar la posición de un objeto en cualquier lugar del mundo,
con una precisión de centímetros?
Entró en servicio en la década de los 60, dentro del esquema militar estadounidense. Ya en 1984, se empezó a producir comercialmente, pero
fue sólo en la década de los 90 que el mundo puso sus ojos en él y descubrió la utilidad que podría tener en la vida diaria, más allá del mundo
militar.
Edison Pérez, investigador de Colciencias, anota: "Es la innovación más importante de los últimos diez años, y su rango de aplicación es
inmenso, desde la navegación (terrestre, peatonal, naval, aérea) que ha permitido la optimización del transporte y los sistemas logísticos,
pasando por su utilidad en seguridad y defensa, hasta aplicaciones en agricultura, exploración y explotación minera, construcción, cartografía,
salvamento y rescate. A través de este desarrollo se ha incentivado, obviamente, el desarrollo de la tecnología de los satélites".
Cómo no, si la tecnología del GPS está íntimamente ligada a la carrera satelital de los últimos tiempos, pues su funcionamiento depende de
esas (24 exactamente) grandes y misteriosas máquinas blancas que giran en torno a nuestro planeta. "Los receptores GPS pueden recibir, y
habitualmente lo hacen, la señal de más de tres satélites para calcular una posición ―explica Vladimir Montealegre, gerente de Rastreo
Satelital de Colombia―. En principio, entre más señales reciben, más exacto es el cálculo de la posición".
Y en la vida diaria, ¿vale la pena contar con uno de estos aparatos? Según Natalia Araque, de la empresa Finder, cada vez es más común su
uso como una guía para saber de qué manera llegar a un lugar determinado, o como un mecanismo de seguridad para las empresas de
transporte (ver recuadro) y como un indicador del lugar adecuado para cultivar. De ahí que algunos digan que el éxito comercial de GPS
implica el fracaso de los mapas y de algunas estrategias de defensa.
Eso sí, aún falta mucho. Pérez comenta: "Esta tecnología, en pleno proceso de masificación, tiene diversos retos, entre los cuales está la
interoperabilidad con otros sistemas de posicionamiento global en proceso de desarrollo, como el Galileo de la Unión Europea, el GLONASS
ruso o el BEIDOU chino". Una demostración de que, para bien o para mal, la llamada globalización aún está lejos de ser total.
"Ahora duermo más tranquilo"
Baudilio Escobar Gómez, propietario de una compañía de transporte.
"Soy dueño de tres tractocamiones y antes de adquirir el sistema de rastreo satelital vivía con una constante incertidumbre, no tenía la certeza
de dónde se encontraban mis vehículos, si estaban trabajando o no; no tenía cómo verificar si era cierta la información que me daban los
conductores. Desde que adquirí el servicio de rastreo satelital duermo más tranquilo. Puedo monitorear por Internet la ubicación precisa de mis
vehículos, así como el recorrido que han realizado, o en caso de no tener computador o red disponibles, puedo llamar a la central de monitoreo
para que me informen la ubicación".

LA VÁLVULA DE HAKIM: TECNOLOGÍA COLOMBIANA PARA TRATAR LA HIDROCEFALIA


Desde 1986, una enfermedad que afecta a millones de personas en todo el mundo, dejó de ser un dolor de cabeza para los médicos, gracias a
una pequeña válvula creada por un científico colombiano.

Salomón Hakim Dow describió el síndrome de hidrocefalia de presión normal (HPN) en los años 60: se trata del aumento del líquido
cefalorraquídeo en las cavidades ventriculares del cerebro sin que haya aumento de la presión intracraneana y es también conocido como
hidrocefalia crónica del adulto o síndrome de Hakim, en honor al médico que además ideó un tratamiento "consistente en un procedimiento
quirúrgico que era necesario repetir periódicamente para hacer ajustes del sistema de drenaje. Sin embargo, esto era poco práctico por los
costos y los riesgos asociados a cada intervención", según anota Pablo Patiño, director de Fomento a la Investigación de Colciencias.
La solución a este problema fue patentada en 1986 por el mismo Salomón Hakim Dow y su hijo Carlos, quienes crearon una válvula
programable que se instala fuera de la cavidad craneana y se conecta tanto a las cavidades del cerebro como al corazón, para que el líquido
salido del cerebro haga parte de la circulación y se pueda regular la presión. "La gran ventaja de la válvula ―de acuerdo con Pablo Patiño― es
que gracias a su mecanismo puede ser programada para mantener el flujo adecuado de líquido cefalorraquídeo hacia fuera del cráneo y de
esta manera evitar las consecuencias que el exceso de dicho líquido tiene sobre el tejido nervioso".
La investigación para tratar la hidrocefalia, a pesar de la efectividad de la válvula, no para, y actualmente Carlos y Fernando, los hijos del
doctor Hakim, continúan mejorando un legado que ha salvado millones de vidas alrededor del mundo. "El futuro de las válvulas es promisorio
―dice el neurocirujano Fernando Hakim―, ya que cada día conocemos más el funcionamiento de la dinámica de la cavidad craneana y de esta
manera estamos mejorando las posibilidades de un sistema autorregulable que adapte le presión en forma automática de acuerdo a cada
paciente".

"Antes de que existiera la válvula, los tratamientos de la hidrocefalia no tenían buenos resultados"

Fernando Hakim Daccach, neurocirujano, hijo de Salomón Hakim Dow.

"La válvula se utiliza en todo el mundo para el manejo de todas las hidrocefalias. Las primeras válvulas sólo tenían un rango de presión; las
actuales son programables, esto quiere decir que en una única válvula uno tiene la capacidad de cambiar la presión de acuerdo al estado de
cada paciente. Si, posterior a la implantación, la hidrocefalia no se corrige por completo (antes había necesidad de cambiar la válvula por una
de otra presión), la gran ventaja de la programable es que se le cambia la presión al paciente en cinco segundos de manera no invasiva con un
computador en el consultorio. Esto equivale a tener 18 válvulas en una, ya que tiene 18 posibilidades de variación de la presión, de acuerdo a
la necesidad de cada paciente".

CIRUGÍA PLÁSTICA: SIEMPRE JÓVENES, SIEMPRE BELLOS


¿Quiere adelgazar?, ¿lucir de quince?, ¿verse más voluptuosa o perfeccionar su nariz? En los últimos 25 años todas las formas de
embellecimiento se hicieron posibles. Basta con pasar unas horas por el quirófano.

Pablo Javier Patiño, director de fomento de investigación de Colciencias, asegura que hay evidencias de que en la India y luego en Egipto,
Grecia y Roma, se realizaron procedimientos para reparar tejidos u órganos dañados. Durante la Primera Guerra Mundial, el otorrinolaringólogo
neozelandés Harold Gillies, al corregir las lesiones faciales de los soldados heridos, desarrolló muchas de las técnicas que actualmente usa la
cirugía plástica.
Fue a partir de este momento que empezó el desarrollo de las técnicas médicas y quirúrgicas para mantener o restaurar las características de
la apariencia, o incluso para aumentarlas más allá del promedio y llevarlas a algún ideal estético. Patiño afirma que estas cirugías han tenido
un crecimiento sostenido en todo el mundo: "El número de procedimientos cosméticos realizados en los Estados Unidos se ha incrementado
más de un 50% desde los comienzos del siglo actual. Según las estadísticas de la Sociedad Americana de Cirugía Plástica, la cirugía de
aumento mamario se mantiene como el procedimiento quirúrgico más popular realizado por los cirujanos plásticos, con más de 318.000
pacientes sometidas a esta cirugía, de los cerca de 9,5 millones de procedimientos cosméticos quirúrgicos y no quirúrgicos realizados en
Norteamérica en 2010".
Según Ernesto Andrade, cirujano plástico, en el último cuarto de siglo los avances se han dado en "la cirugía endoscópica para elevación de
cejas, el láser en todos sus aspectos, la mejoría en los implantes mamarios y faciales, la incorporación de radiofrecuencia, el ultrasonido y el
láser en liposucción y las máquinas tonificantes. Y el perfeccionamiento de absolutamente todas las técnicas quirúrgicas, tales como la
abdominoplastia, la lipoescultura facial y los implantes pilosos".
Andrade piensa que, con el rápido avance de la tecnología, no sería raro que en unos años las personas puedan pararse dentro de un tubo que
modificará absolutamente todo lo que se necesite, incluyendo la estatura, para que quien lo desee obtenga el cuerpo soñado.

"Pese a sentirme bien, decidí perfeccionar algunas partes de mi cuerpo"


Martha Liliana Ruiz, exreina y actriz.

"Hace cinco años, y luego de dar a luz a mi tercera hija, bajar de peso para mí era casi imposible. Tenía 41 años, había subido 21 kilos y el
tamaño de mi busto me estaba trayendo problemas. En mi caso, mi trabajo exige un buen físico y, aunque estaba contenta como era, me
sometí a la intervención porque sabía que podría rejuvenecer sin perder mi esencia. Entonces me reduje el tamaño del busto, me hice una
liposucción, una lipectomía, me reduje pómulos y me hice la nariz".
PROZAC: LA PASTILLA DE LA ALEGRÍA
En el apresurado mundo de los últimos 25 años, la depresión y la tristeza se convirtieron en algo común. ¿La solución de muchos? La
fluoxetina, conocida por todos como Prozac.

A partir de la idea de que el neurotransmisor serotonina tenía un efecto esencial en el estado de ánimo de los seres humanos, a principios de
los años 70 los investigadores Bryan Molloy y Robert Rathbun descubrieron y desarrollaron una molécula que inhibía la recaptura de la
serotonina por parte de las neuronas. Es decir, como lo explica Pablo J. Patiño, director de fomento de investigación de Colciencias, "crearon un
fármaco que, al aumentar la concentración de serotonina en ciertas zonas del cerebro, evitaba o disminuía la depresión anímica". En este
momento su nombre genérico era fluoxetina. En 1975 fue comercialmente conocido como Prozac y en 1987 inició su venta tras la aprobación
de la FDA, Food and Drug Administration (Administración de Alimentos y Medicamentos).
Pese a no ser el único medicamento creado para cumplir con esta función, el Prozac es química y farmacológicamente diferente de los
antidepresivos tradicionales o convencionales (tricíclicos). "Muchos lo consideran como el desarrollo científico que revolucionó el tratamiento
de la depresión; ha sido denominado por algunos como la 'droga de la felicidad' ―dice Patiño―. La historia del desarrollo de la fluoxetina ha
dejado una enseñanza importante en el campo de la investigación en psicofarmacología, pues hasta hace poco los medicamentos usados para
tratar desórdenes psiquiátricos se descubrían gracias a una afortunada relación entre el azar y el ingenio".
Pero además de su descubrimiento, se han diseñado moléculas que apuntan a blancos terapéuticos con mecanismos de acción más
específicos, a partir de elementos de la farmacogenética, la ingeniería genética y la bioingeniería, que ayudan a evitar los efectos secundarios
o colaterales de estas medicinas.
Existen estudios con ratones que revelan que el fármaco estimula el desarrollo de nuevas neuronas en el cerebro, llevando a pensar que la
neurogénesis puede ser parte del mecanismo que alivia la depresión. Aunque Lou Marinoff, en su libro Más Platón y menos Prozac, propuso a la
filosofía como terapia, todavía son muchos los que encuentran en este medicamento la mejor opción para acabar con la angustia y la tristeza.
¿Sí será tan maravilloso? Un viejo proverbio asegura: "De eso tan bueno, no dan tanto".

"Esta píldora demuestra que el hombre ha logrado crear herramientas para mejorar la vida".
Félix Cantoni, médico psiquiatra.

"Cuando la depresión es demasiado fuerte y las consecuencias de ella son amenazantes (enfermedad física, tendencias suicidas, alcoholismo
y/o adicciones), la combinación de un proceso de psicoterapia (que busque recuperar la autoestima y resolver los conflictos y carencias
internas que están detrás del sufrimiento), con la administración de psicofármacos que alivian el desánimo y la parálisis ―como Prozac―,
ofrece la mejor oportunidad terapéutica".

IMPRESORA 3D: LA FOTOCOPIADORA DE IDEAS


Parece ciencia ficción, pero es real: hace dos décadas, una máquina imprime productos en tercera dimensión totalmente terminados y
ensamblados.

Edison Pérez, asesor de programa nacional de electrónica, telecomunicaciones e informática de Colciencias, asegura que este artefacto,
invento del italiano Enrico Dini, es de las creaciones modernas más prometedoras en la tecnología mundial. "Proyectos como el automóvil
híbrido Urbee, diseñado y fabricado a partir de una impresora 3D, o el RepRap, una máquina que puede replicarse a sí misma, se convierten en
punta de lanza de una tecnología que busca, en el corto plazo, desarrollar, además, tejidos humanos en materiales biosintéticos, autopartes y
automóviles con formas más versátiles y seguras en materiales livianos y amigos del medio ambiente".
Un pequeño avión manejado a control remoto, una flauta, un violín Stradivarius, una pared, sillas, mesas, repuestos de carro y cosas tan
pequeñas como anillos, son algunos de los objetos que ya han sido impresos en este tipo de aparato. Pero, ¿cómo funciona? Con un diseño en
mente, plasmado en un programa digital, la impresora lo fragmenta en capas de menos de un milímetro y de abajo hacia arriba empieza su
fabricación. Este proceso, dependiendo del producto, puede tardar horas y en ocasiones hasta días. Pero esto no es todo, porque los
especialistas siguen trabajando con la convicción de producir objetos con movimiento u órganos cuya tinta sea hecha con proteínas y células.
Cristian Paul Peñaranda y Ronald Burgos, oriundos de Buga, Valle del Cauca, luego de investigar, encontraron que el código fuente y la
documentación de la RepRap era libre y abierta, entonces, se propusieron traer esta tecnología al país con el objetivo de tener una pequeña
fábrica de objetos, experimentar y aprender. "Si bien nadie está pensando en acabar con el modelo de producción actual, tener la posibilidad
de replicar objetos en casa podría ser algo que generará todo un rompimiento, similar a lo que sucedió con la aparición del computador, 30
años atrás", afirma Cristian.

"Con la impresora 3D se reducen precios de fabricación y de complejidad"

Cristian Paul Peñaranda, estudiante de ingeniería electrónica, y Ronald Burgos, ingeniero de sistemas.
"En 2009 compramos un kit de impresora 3D a una empresa en Nueva York, llamada Makerbot, con la única intención inicial de imprimir las
partes plásticas para crear la RepRap, ya que su precio era menor que pagar por la impresión de la partes en Colombia. Trajimos del exterior
también los motores, y las partes mecánicas sí las compramos en Buga. El primer objeto que imprimimos fue un gancho de pared para ropa. El
soporte de nuevos materiales y la constante experimentación acercan este tipo de impresoras a un ambiente más profesional".

NANOTECNOLOGÍA: ¿LA SEGUNDA REVOLUCIÓN INDUSTRIAL?


No son pocos los que aseguran que la solución de buena parte de los retos que enfrentan la industria y la medicina hoy, está en el desarrollo
de la nanotecnología, la técnica encargada del control y la manipulación de las moléculas y los átomos.

En 1965 hubo una primera voz científica que hizo referencia al término, la del Nobel de física Richard Feynman, quien afirmó: "Con el control
de la disposición de las moléculas y átomos se pueden crear nuevos materiales con propiedades inimaginables". Sin embargo, fue hasta los
años 80 que los avances experimentales fueron determinantes para la aparición de la Microscopía de Túnel de Barrido (STM) o de Fuerza
Atómica (AFM), que hizo posible observar los materiales a escala atómica y, después, manipular átomos individuales.
El prefijo 'nano', que hace alusión a la milmillonésima parte de un metro, le abre las puertas a los materiales, dispositivos, instrumentales,
entre otros, que se encuentran en la escala desde 5 a 50 o 100 átomos, llamándolos nanotecnología. Carlos Orlando Ladino, asesor de
Colciencias, afirma que "cuando se manipula la materia a la escala tan minúscula de átomos y moléculas, demuestra fenómenos y
propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas novedosos y
poco costosos con propiedades únicas".
"Manipular el comportamiento de la naturaleza en aquellas escalas en donde tienen lugar todos los procesos responsables de la organización,
evolución y comportamiento de lo que hace parte del mundo que conocemos ―dice Édgar González, físico, director del Centro de Ciencia y
Tecnología Nanoescalar― ha sido uno de los principales desafíos de la ciencia y la tecnología".
Los avances han sido extraordinarios y esto ha llevado a continuar investigaciones con resultados cada vez más sorprendentes, ya que, como
dice Ladino, "la nanotecnología constituye uno de los pilares científicos técnicos sobre los que la sociedades avanzadas van a construir su
bienestar en el siglo XXI". Por eso, los países avanzados hoy no sólo invierten en infraestructuras y formación de los especialistas en empresas
y centros de investigación, sino que además preparan a la sociedad para el impacto que representa este cambio.
La nanotecnología tiene un sinnúmero de aplicaciones, dentro de las que se pueden destacar: la fabricación de productos químicos y
farmacéuticos, materiales más ligeros para la industria aeronáutica y automóvil, y empaques inteligentes para mantener frescos los alimentos.

"Manipular el comportamiento de la naturaleza en aquellas escalas, ha sido uno de los principales desafíos de la ciencia"

Édgar González, director del Centro de Ciencia y Tecnología Nanoescalar, e investigador en la producción de nuevos nanomateriales.

"Aunque se requieren severas políticas de regulación y seguridad para un uso responsable de productos nanoestructurados, que ya empiezan
a aplicarse en el sector agrícola, alimentario, textil y automotriz, entre otros, no hay duda de que los beneficios y soluciones que aportarán,
específicamente en el área de la salud, la energía y remediación ambiental, serán significativos".

LÁSER: EL NUEVO BISTURÍ


Aunque no veamos sus rayos, este chorro de luz está en todas partes. Escoja cualquier objeto. Seguro que, al menos una vez, pasó por el
láser.

Sí, es verdad: ya en 1916 Albert Einstein estableció los fundamentos para el desarrollo del láser y, tras la Segunda Guerra Mundial, Willis
Eugene Lamb y R.C. Rutherford, comprobaron definitivamente las teorías que se habían gestado sobre él. Es más, también es cierto que
muchos consideran a Arthur Leonard Schawlow y Charles Town como sus inventores, porque lo patentaron en la década de los 60. Pero aun
con toda esa historia encima, es innegable que fue en los últimos 25 años que el uso del láser se masificó y tocó todos los ámbitos: desde el
trabajo industrial hasta la medicina, pasando por el entretenimiento y la rumba. El láser, que antes era sólo manipulado por atemorizados
científicos, ahora está en todas partes. Hasta en los juguetes de sus hijos.
Tal como lo anota Galo Tovar, asesor de desarrollo tecnológico e innovación de Colciencias, el origen de la palabra láser viene de la sigla en
inglés Light Amplification by Stimulated Emission of Radiation (amplificación de luz por emisión estimulada de radiación). Se trata de un
dispositivo óptico que tiene una fuente que genera un chorro de luz especial. Una luz que no se dispersa, es coherente y de un solo color.
Y después añade: "Hoy en día el láser es una herramienta fundamental en la investigación, la industria, las comunicaciones, la medicina, la
impresión, la seguridad y el entretenimiento. En investigación, se utilizó un láser para medir la distancia de la Tierra a la Luna; para detectar
movimientos de la corteza terrestre y la contaminación atmosférica. En la industria se usa como herramienta de corte de metales, plásticos,
diamantes y confecciones; en carreteras y construcción de edificios para alinear las estructuras; en comunicaciones puede transportar 1.000
veces más canales de comunicación que el sistema microondas. En medicina, se ha utilizado para soldar la retina, cauterizar vasos sanguíneos
(varices) y perforar el cráneo; en estética, para la depilación. En impresión para incrustar hologramas de seguridad en los billetes o boletas y
en la fabricación de impresoras láser. En equipos de entretenimiento, para leer CD o DVD, y en el comercio, como lector de códigos de barras".
¡Qué tal! ¡Casi nada! Y según parece apenas estamos comenzando. El láser será un elemento clave en el desarrollo de nuevas tecnologías en
los próximos años. Es más, hasta se le relaciona con la futura anestesia, la lucha contra la malaria y el encendimiento de bujías.
Sí, hace tiempo que el láser dejó de ser ese rayo de las espadas de La guerra de las galaxias. Ahora está en todas partes.

"Gracias al láser, quedé viendo más de lo que ve una persona normal"


Juan Pablo Rodríguez, médico. Gerente de la Fundación Oftalmológica Nacional.
"Me hicieron cirugía refractiva en ambos ojos porque no veía de lejos. Es un procedimiento en el que el láser hace una ablación (talle) en el
interior de la córnea, que es el lente más potente que tiene el ojo. Fue una de las primeras ablaciones personalizadas (wave front) que se
hicieron en Colombia. Con este procedimiento quedé viendo más de lo que normalmente ve una persona".

GENÉTICA: DEVELANDO LOS SECRETOS DE LA CIENCIA


En este cuarto de siglo hemos conocido más sobre quiénes somos, para dónde vamos y cómo desaparecer las enfermedades que nos aquejan,
de lo que lo habíamos hecho durante milenios. Pero todavía falta bastante.

En los últimos 25 años todo el mundo empezó a hablar de genética. ¿Por qué? "Comprendimos que el ADN puede aislarse, modificarse y
transferirse entre organismos independientemente de su origen. Entonces tuvimos en nuestras manos una herramienta poderosa", dice
Alejandro Chaparro, director del grupo de ingeniería genética de plantas, de la Universidad Nacional.
Camilo Ernesto López, biólogo e investigador de la Universidad Nacional, los avances más importantes en materia de genética de los últimos
25 años fueron muchísimos. Pero aquí van los más importantes:
-La incorporación de nucleótidos (los ladrillos que forman el ADN, la molécula de la vida) sintéticos, para de esta forma tener una molécula de
ADN artificial, que porta la información de un organismo determinado.
-La secuenciación del genoma humano; es decir, la determinación completa de la disposición lineal y continua de nucleótidos que forman cada
una de las veintitrés moléculas (cromosomas) presentes en los seres humanos.
-El descubrimiento de los micro-ARN ha sido uno de los grandes aportes en el conocimiento de la biología molecular y ha logrado aplicarse
para desarrollar metodologías que permitan silenciar o apagar genes específicos. Las aplicaciones están aún en sus comienzos, pero tienen el
potencial de constituirse en una de las mejores estrategias de terapia génica.
-La clonación de la oveja Dolly, que abrió las puertas a la posibilidad de clonar otros organismos y generó la discusión sobre la clonación de
seres humanos.
-Las primeras plantas transgénicas. Aunque fueron desarrolladas por primera vez hacia finales de los 80, sin duda en los últimos años se ha
progresado enormemente en este aspecto, logrando hacer plantas transgénicas de una gama amplia de especies y con transgenes diferentes.
-A finales de los 80 se desarrolló la técnica de amplificación in vitro de fragmentos de ADN, o más conocida como PCR. Permite producir miles
de copias de un fragmento de ADN de manera rápida y muy simple. También ha permitido el desarrollo de muchos sistemas de detección y
diagnóstico en enfermedades de animales y plantas.
¿Y a dónde nos llevará el desarrollo de la ingeniería genética? "El gran desafío es descifrar la función de cerca de los 28.000 genes que
tenemos ―explica López―. Creo que seremos capaces de sintetizar genomas más complejos y podremos tener sistemas que nos permitan
insertar genes dentro del genoma de las plantas. Apagaremos o prenderemos genes, lo que será una gran estrategia. Y tendremos avances
importantes en la comprensión del funcionamiento de las células madre. Suena muy futurista, pero no es algo lejano: ¡en cuestión de diez o
quince años se dará!".

"La genética nos dice a dónde vamos"


Paul Chavarriaga. Biólogo, especializado en genética. Investigador del Centro Internacional de Agricultura Tropical (CIAT).

"Uno de los descubrimientos que mayor impacto ha tenido, y seguirá teniendo, es el conocimiento de las secuencias de los genes que están
implicados en un sinnúmero de actividades a nivel de células y organismos. Hoy se conoce como el código genético, o la secuencia del
genoma... Bueno, creo que el mayor beneficio que la genética me ha proporcionado es que me proporciona otra perspectiva de la vida, de lo
que somos, de hacia dónde vamos...".

SOFTWARE: EL ALMA DEL COMPUTADOR


Antes de su existencia, acercarse a los sistemas era algo complejo. Esta forma de lenguaje se ha sofisticado mucho en estos 25 años, pero lo
que viene es de no creer.

El Instituto de Ingenierías Eléctricas y Electrónicas define la palabra software así: "Es el conjunto de los programas de cómputo,
procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de un sistema de computación". ¿Una
definición muy fría, incomprensible? Entonces digamos que el software es el alma del ordenador; que sin él, el aparato sería poco más que una
caja, un elemento decorativo. Que en todo ese contenido intangible que se encierra en esa palabra está la vida ―si es que podemos hablar de
vida― que pueda haber en un ordenador.
¿Quiere más? Sin él no podríamos hablar ni de Word ni de Excel ni de Internet, así que nada de trabajos universitarios hechos frente al
computador, ni de muy ordenados presupuestos empresariales, ni de búsquedas en Google o relaciones a través de Facebook. Nada. Uy, ¡qué
sería de nosotros sin software!
La idea de software libre (aquel que respeta la libertad de los usuarios sobre el producto adquirido) apareció en 1985, cuando Richard Stallman
hizo el registro público. Y fue en los años siguientes que invadió al mundo y se hizo más que necesario; de ahí que no dudemos en incluirlo en
la lista de las 25 innovaciones más importantes de los últimos 25 años.
"La industria del software es la que mayores innovaciones aporta en términos de tecnología a la sociedad ―anota Edison Pérez, del Programa
Nacional de Electrónica, Telecomunicaciones e Informática de Colciencias―. Desde las primeras aplicaciones en la industria militar hasta la
masificación de Internet y las redes sociales, pasando por los desarrollos específicos en robótica e inteligencia artificial hasta la nanorobótica,
son el software y los sistemas operativos, los idiomas con los cuales la tecnología actual se interrelaciona entre sí misma y con el hombre".
Según el portal neoteo.com, los avances que vienen para el software son de no creer. Basta con leer lo siguiente: "Ya son capaces de
determinar el estado de ánimo de una persona simplemente 'viendo' una imagen de su rostro, o predecir el comportamiento de los mercados
bursátiles. Y se trata de una disciplina en la que recién estamos comenzando a trabajar seriamente (...) De la mano de un hardware compuesto
por chips cuánticos masivamente paralelos (con cientos de núcleos corriendo a la par), el software será incluso superior al más inteligente de
los humanos". ¡Por Dios!

"El software cambió el mundo"

Gerente de comunicaciones externas de SAP para la región de habla hispana de Sudamérica.

"El software cambió nuestra forma de trabajar y cambió el mundo. Dio capacidad de análisis, facilitó las tareas, dio inteligencia a los datos y
en los últimos años nos permitió acceder a la información y sus análisis desde cualquier lugar y momento, a través de dispositivos móviles. La
utilización de ciertas herramientas facilitó mi tarea cotidiana. En la actualidad, desde un dispositivo móvil puedo aprobar diferentes tipos de
órdenes camino a la oficina, ahorrar tiempo y aprovechar tiempos muertos".

FIBRA ÓPTICA: TODA LA INFORMACIÓN EN UN HILO


La velocidad con la que los mensajes viajan a través de esa fibra, tan delgada como un cabello, sigue siendo impresionante. Una mirada al hilo
que conectó al mundo.

¿Cuánto demora en llegar una película de alta calidad de un lugar del mundo a otro, a través de fibra óptica, si se usa completo el ancho de
banda? Una centésima de segundo. Rápido, ¿no? Es que este medio de transmisión alcanza velocidades de alrededor de 15 terabits sobre
segundo, es decir: puede enviar una cadena de hasta 15 billones de bits por segundo.
¿Demasiada información? Vamos con calma. "La fibra óptica es un medio de transmisión de señales electromagnéticas constituido por un hilo
flexible muy fino que puede ser de vidrio o algún tipo de plástico, con un ancho cercano al de un cabello humano, y por el que la señal viaja
desde un extremo al otro", dice Diego Leonardo Otálora, físico de la Universidad Nacional y asesor de Colciencias, cuando se le pide una
definición. Y después, más explicativo, añade: "En varias aplicaciones esta señal tiene una longitud de onda dentro del espectro visible, por lo
cual puede ser considerada luz. La fibra generalmente está constituida por un hilo central rodeado de un revestimiento de material de menor
índice de refracción, es decir con menor capacidad para curvar la luz. Debido al fenómeno físico conocido como reflexión total interna, la luz
queda atrapada en el interior del hilo, de forma que éste actúa como una guía que determina la dirección de propagación de la luz".
La primera línea transatlántica de fibra óptica ―la TAT-8― fue instalada en 1988. Desde entonces, se ha usado la fibra en multitudes de
enlaces tanto transoceánicos como entre ciudades, y, por supuesto, ha ido creciendo el uso desde las redes troncales de las operadoras hasta
los usuarios finales.
El de la fibra óptica es hoy uno de los negocios más productivos y competidos del mundo, pues empieza a desplazar a los sistemas satelitales
e inalámbricos, ya que en muchas oportunidades resulta más barato. De ahí que buena parte de la información a la que hoy tenemos accesos
se transporte por medio de la dichosa fibra: nuestro acceso a Internet, las películas que vemos en nuestros televisores y las llamadas que
hacemos, muy probablemente viajen por este medio.
Pero hay más: también se le usa como sensor (para medir tensión, temperatura y presión); como forma de iluminación; como guía de onda en
la medicina y la industria; como componente del hormigón traslúcido y hasta en el desarrollo de coberturas más resistentes. ¡Vaya fibra!

"¡Actualmente la fibra óptica es vital!"


Pedro Ignacio Torres. Director del Grupo de Fotónica y Optoelectrónica de la Universidad Nacional.

"Trabajo en el desarrollo de sensores de fibra óptica de interés para varias industrias: para la medición de presión y temperatura en fondos de
pozo de petróleo; en aplicaciones para el monitoreo de estructuras civiles; en la medición de la calidad de biocombustibles; en el desarrollo de
un prototipo para la inspección interior de tuberías; en tecnologías fotónicas para aplicaciones en biomedicina. Con el laboratorio en el que
trabajo, nos ocupamos también de un dispositivo y un método para desarrollar láseres pulsados completamente a fibra óptica, que muy pronto
esperamos poder escalar para incursionar en láseres de potencia con miras a aplicaciones industriales... ¡Actualmente, la fibra óptica es
vital!".

LIBRO ELECTRÓNICO: DEL PAPEL A LA PANTALLA


Entre las opiniones que auguran el fin del libro impreso y las que afirman su convivencia con los formatos electrónicos, sólo una cosa parece
ser cierta: el libro electrónico no deja a nadie indiferente y tiene a todos especulando sobre su alcance.
Fotografía: Elizabeth Jiménez

Cuando imprimió la Biblia en su imprenta de tipos móviles en la década de 1450, Johannes Gutenberg estaba dando inicio a una revolución en
el acceso a la información que ha ayudado a definir el mundo desde entonces. Ahora, con la llegada del libro electrónico en 1971 y de los
dispositivos de lectura digital (e-readers) en la década de los 90, se habla también de una revolución del libro electrónico que apenas está
empezando.
Un libro electrónico es un texto en formato digital, independientemente de su soporte, que puede ser Internet, dispositivos móviles o lectores
de libros electrónicos, como el famoso Kindle, desarrollado por Amazon (esta librería anunció a principios del 2011 que sus ventas de libros
digitales ya superan las ventas de aquellos en papel), o el Nook de la Barnes & Noble.
Edison Pérez, asesor del Programa Nacional de Electrónica, Telecomunicaciones e Informática de Colciencias, asegura: "El libro electrónico es
una de las invenciones más sobresalientes de los últimos años, con un impacto radical en los métodos de lectura y en la conservación del
medio ambiente al eliminar el papel impreso y los amplios espacios para contener la información, ya que en un pequeño dispositivo se pueden
almacenar contenidos equivalentes a una biblioteca; asimismo representa un cambio radical en el esquema de mercadeo de literatura, pues
se pasa del concepto de librería tradicional al concepto de librería virtual a través de Internet."
Aunque muchos dispositivos electrónicos cuentan con técnicas de simulación del papel, existen formatos que se alejan de la concepción
tradicional del libro impreso e invitan a explorar otros recursos. "Hay casos en los que se puede interactuar directamente con la máquina; por
ejemplo, en temas de geografía se pueden explorar relieves o ver mapas en 360 grados", asegura Pérez, quien señala, además, que la
información va a seguir vertiéndose hacia los medios digitales hasta un probable futuro en el que la transmisión de datos se haga por ondas
cerebrales.

"El libro electrónico sirve para trascender fronteras"


Javier Correa Correa, autor de dos libros electrónicos.
"El formato electrónico hace que la distribución de la obra no se restrinja a un área geográfica y un periodo determinados, sino que se amplíe a
todo el espectro de lectores de la lengua en la que la obra haya sido escrita, lo cual permite, a su vez, una difusión de los valores culturales del
país de donde es oriundo el autor. En este contexto, una editorial como Elibros, que publicó en formato digital mis novelas La mujer de los
condenados y Si las paredes hablaran, sirve para trascender fronteras, acceder a lectores que no serían fácilmente alcanzables con libros
impresos, contribuir al equilibrio ecológico (no hay gasto de papel ni de tinta) y ajustarse a las posibilidades que brindan las nuevas
tecnologías de la información".

BIOLOGÍA COMPUTACIONAL: LA INFORMÁTICA DE LOS SERES VIVOS


De la combinación de biotecnología y computación surge la biología computacional, un campo de estudio que aplica los sistemas de la
informática a la medicina, para una mejor comprensión de los seres vivos.
Fotografía: Fredy Amariles

En 1990, cuando se dio inicio al Proyecto Genoma Humano, que buscaba hacer un mapa de los más de veinte mil genes de nuestra especie, se
estimó que la labor sería terminada en 2005, pero dos años antes de la fecha de entrega los investigadores sorprendieron al mundo con el
anuncio de que la tarea ya estaba completa. El uso de computadores permitió realizar este trabajo de investigación, en tanto los avances
tecnológicos contribuyeron a su vez a que la labor se pudiera completar en un menor tiempo del esperado.
El uso de computadores en este proyecto es sólo un ejemplo de las aplicaciones de la biología computacional, "un campo de estudio altamente
interdisciplinario, que reúne conocimientos en matemáticas, biología, bioquímica, genética, estadística, química, biofísica, ecología e ingeniería
computacional", como indica Mauricio Rodríguez, gestor del Programa Nacional de Biotecnología. Se trata de un campo en el que, en pocas
palabras, se recurre a la informática para resolver problemas de la biología.
Aunque la informática es una disciplina mucho más joven que la biología, la combinación de las dos ya ha hecho una contribución invaluable al
conocimiento científico y todo apunta a que seguirán mezclándose en el futuro. Juan Fernando Alzate, del grupo de estudio del genoma de la
bacteria que causa la tuberculosis, afirma que "la biología y la medicina dependerán más de la computación hasta hacerse inseparables",
mientras Mauricio Rodríguez da una pista sobre sus posibles aplicaciones: "Eventualmente, se prevé que se logrará, junto con la biología
sintética, la posibilidad de rediseñar genéticamente cualquier organismo vivo".
"En cuestión de una semana podemos tener información detallada de cualquier bacteria patógena que pueda surgir".

Juan Fernando Alzate, director del Centro Nacional de Secuenciación Genómica CNSG.

"Para identificar la secuencia completa del genoma de la bacteria que produce la tuberculosis ―trabajo que realizamos conjuntamente con el
grupo GICIG de la Universidad de Antioquia y el Consorcio Colombiano para Investigación en Tuberculosis― utilizamos tecnología de punta de
secuenciamiento genómico disponible en el CNSG en la Universidad de Antioquia. Rompemos en cientos de miles de trozos el material
genético de la bacteria, leemos la información de cada uno de esos trozos y luego volvemos a armar un rompecabezas de 350.000 piezas
aproximadamente. Este tipo de investigación ofrece datos básicos del material genético del patógeno que produce la tuberculosis en Colombia
y permite que los investigadores puedan mejorar los métodos diagnósticos actuales o diseñar pruebas de laboratorio que permitan en un
futuro cercano ver más claramente los patrones de su transmisión en nuestras ciudades".

TRANSPLANTES: REGALOS DE VIDA


Los trasplantes de órganos y tejidos son hoy procedimientos frecuentes, que han permitido mejorar la vida de personas con enfermedades
crónicas específicas.
Fotografía: Fredy Amariles

La posibilidad de los implantes se hizo realidad con el oftalmólogo Eduard Zirm, quien en 1905 realizó el primer trasplante exitoso (de córnea),
y con el francés Alexis Carrel, que estuvo al frente de trasplantes de arterias y venas y en otros más experimentales, como de riñón, corazón y
bazo, en perros, en 1912. Sin embargo, varios inconvenientes surgieron a partir de esta fecha como el descubrimiento de la incompatibilidad o
rechazo de los órganos.
Pese a que su implementación se inició en esa época, Pablo Javier Patiño, director de fomento de investigación en Colciencias, asegura que en
los años 70 empezó la real revolución de este procedimiento, con la llegada de fármacos inmunosupresores para evitar los rechazos. Gracias a
ello, los trasplantes se hicieron cada vez más comunes, especialmente en los años 80, en Europa, Norteamérica y Latinoamérica.
De hecho, por esos días se dio a conocer la necesidad de incrementar el insumo básico de los trasplantes: los órganos.
"En el futuro la esperanza terapéutica principal que se tiene para trasplantes es la utilización de células madre ―dice Luis Fernando Palacio
Tamayo, coordinador de la red de trasplantes regional Dos―, las cuales se puedan emplear para terapias celulares y trasplantes de tejidos, sin
los problemas actuales ligados a los aloinjertos, escasez de donantes histocompatibles y necesidad de administrar drogas inmunosupresoras
con sus efectos secundarios".
Actualmente se puede hablar de trasplantes de hígado, médula ósea, córnea, pulmón, intestino, páncreas, piel, timo, hueso e incluso partes
del cuerpo, tales como miembros y cara. Patiño asegura que gracias a los desarrollos recientes en la investigación en las células madre y en la
ingeniería de tejidos, se espera que en pocos años sea posible reemplazar cualquier órgano o tejido de nuestro organismo.

"El deterioro de mi salud era cada vez más acelerado, pero con el trasplante los cambios han sido estupendos"
Martha Cecilia Vargas López, ingeniera administradora. Hace unos meses le hicieron un trasplante de corazón.
"Padecía de insuficiencia cardíaca de origen isquémico. Cuando supe que había un posible donante, sentí un tremendo impacto y tuve mucho
miedo, pero hoy puedo decir que volví a nacer. Mi experiencia me da la oportunidad de comparar la situación actual de la medicina con la de
épocas pasadas. Mi padre falleció a causa de un infarto hace 40 años, a la edad de 55. Alcanzó a estar hospitalizado dos días, pero en esa
época no existían los recursos con que se cuenta actualmente y que posibilitan a los enfermos no sólo de corazón sino de otra serie de
enfermedades, tener, a través de diferentes procedimientos, una oportunidad de vida".

SANGRE ARTIFICIAL: DONANTE UNIVERSAL


Con su capacidad de transportar oxígeno y la ausencia de patógenos, la sangre artificial, comercializada desde 1989, se perfila como
respuesta a la escasez de sangre alrededor del mundo.
Según estimaciones de la Organización Mundial de la Salud, en un país como Colombia el índice de donación debe ser de 40 por cada mil
habitantes para que haya suficiente sangre para atender a todos los pacientes. Pero actualmente sólo once de cada mil colombianos son
donantes. La sangre artificial puede ser la solución a este problema. En 1989, en Estados Unidos, se comercializó el primer sustituto de la
sangre con aprobación. Pablo Patiño, director de Fomento a la Investigación de Colciencias, describe la sangre artificial como "un sustituto
basado en una sustancia que permite cumplir algunas de las funciones de la sangre, en particular el transporte de oxígeno, de forma que se
pueda utilizar como alternativa a las transfusiones sanguíneas. Existen sustitutos para el transporte de oxígeno basados en hemoglobina o en
perfluorocarbono (PFC)".
Las ventajas de la sangre artificial basada en PFC radican en que hace que el oxígeno llegue a tejidos dañados adonde no pueden acceder los
glóbulos rojos. Patiño lo explica así: "Aunque este tipo de sangre artificial no se mezcla con la sangre, se pueden generar emulsiones al
dispersarla en agua, de manera que se formen partículas mucho más pequeñas que los glóbulos rojos. Esta característica permite que el PFC
atraviese por sitios donde no pueden llegar los glóbulos rojos. La otra característica es que la mezcla líquida puede transportar tan bien el
oxígeno, que los seres humanos pueden sobrevivir respirando una suspensión líquida de PFC".
Por su parte, la sangre artificial basada en hemoglobina tiene menor capacidad de transporte de oxígeno dado que se obtiene tras varios
tratamientos físicoquímicos para evitar la toxicidad que tiene en el riñón si se utiliza en su estado puro. Ambas, sin embargo, podrían reducir
los problemas de salud asociados a la escasez de sangre en todo el mundo, con la ventaja adicional de que carecen de las enfermedades
infecciosas que se pueden transmitir si las muestras de los donantes no son analizadas.
Recuadro
"Se resolverán varios de los problemas de disponibilidad y acceso que hoy se presentan con la sangre donada"
Guillermo Orjuela, coordinador de docencia e investigación del Banco Nacional de Sangre de la Cruz Roja.
"Algunas ventajas de la sangre artificial son que no tiene riesgos de transmisión de enfermedades infecciosas; no necesita pruebas de
compatibilidad, lo que resulta útil especialmente en urgencias; puede ser almacenada por mucho más tiempo, de 1 a 3 años, en comparación
con los 45 días de vigencia de la sangre donada actualmente, y puede mantenerse almacenada a temperatura ambiente. En contraste, la
sangre donada debe ser almacenada en refrigerador a 4° C. Cuando los obstáculos que persisten con los sustitutos de la sangre sean
resueltos, estos sin duda resolverán varios de los problemas de disponibilidad y acceso que hoy se presentan con la sangre donada. Serán
también una solución potencial para los pacientes que requieran ser transfundidos, pero no acepten la sangre donada".
VIAGRA: EL FIN DE LAS PREOCUPACIONES MASCULINAS
En 1998, luego de años de estudio, investigadores ingleses encontraron la fórmula que acabó con una de las mayores preocupaciones del
hombre: la disfunción eréctil.

Peter Dunn y Albert Wood, quienes hacían parte de este grupo, no imaginaron que las pruebas, que inicialmente buscaban respuestas
efectivas para la hipertensión arterial y la angina de pecho, arrojarían resultados relacionados con la erección del pene. Conociendo este
efecto, el producto se patentó en 1996. Luego de ser aprobado por la FDA (la agencia estadounidense de drogas y alimentos), no quedaba
nada más que sacarle provecho lanzándolo al mercado con el nombre de Viagra, en 1998. Hay quienes aseguran que su nombre se deriva de
la palabra viāghra, que significa tigre en idioma sánscrito.

Entre 1999 y 2001, las ventas de la píldora superaron los mil millones de dólares. No por nada, el reconocido futbolista Pelé, salió en los
medios recomendando la píldora azul.

"De inmediato se convirtió no sólo en un éxito comercial sino que además revolucionó el tratamiento de las dificultades asociadas con la
impotencia masculina, por tanto ha sido un éxito innovador" dice Pablo Javier Patiño, director de fomento de investigación en Colciencias.
Patiño además asegura que a partir de su descubrimiento, desarrollo e ingreso al mercado, se ha generado una línea de investigación y
progreso que ha conducido a la aparición de otros fármacos para el manejo de la disfunción eréctil.

Pese al lanzamiento de píldoras con diferentes nombres, en 2000 el Viagra era el protagonista en el mercado de píldoras prescriptivas para la
disfunción sexual con un 92%. Pero su éxito produjo que otras entidades copiaran y falsificaran el medicamento, lo cual trajo una caída en sus
ventas durante 2007.

En ocasiones el Viagra ha sido catalogado como 'la droga de la felicidad' ya que, como dice Patiño, "promueve la erección del pene debido a
que permite que el cGMP (guanosín monofosfato cíclico) produzca una vasodilatación más sostenida y por tanto, mayor flujo de sangre a
través de las arterias que se encuentran en los cuerpos cavernosos en el interior del pene".

"Conozco algunas amistades de mi generación que toman Viagra pero prefieren no hablar del tema por temor a ser cuestionados en su
virilidad"
Armando Plata, locutor.

"Pienso que Pfizer ha hecho un magnífico trabajo de publicidad y mercadeo. Alguna vez pensé en tomar Viagra, pero soy un seguidor de los
productos naturales. Tomo Maca, un medicamento alternativo que me recomendó un amigo médico que se pasó de la medicina tradicional a la
natural. Esta hierba, original de la zona andina de Perú y Bolivia, cumple con la misma función del Viagra".
TELOMERASA: ¿EL ELIXIR DE LA ETERNA JUVENTUD?
Esta enzima, que puede hacer que las células vivan más, tal vez nos asegure una eterna juventud. Además, es útil en la lucha contra el
cáncer, las enfermedades coronarias y la diabetes.
Fotografía: Roberto Africano
"En 1930 se conocía que los cromosomas o cuerpos de ADN estaban protegidos por algún mecanismo, pero sólo hasta mediados de los 80 se
descubrió que la enzima encargada de esa protección era la telomerasa ― asegura Mauricio Rodríguez, gerente del programa nacional de
biotecnología de Colciencias―. Fueron Jack Szostak (Universidad de Harvard), Carol Greider (Universidad Johns Hopkins) y Elizabeth Blackburn
(Universidad de California) quienes lograron tan importante hallazgo, lo que los hizo merecedores del Premio Nobel en 2009.
En 1990, por primera vez se propuso la llamada 'hipótesis telomérica', que dice que las células normales tienen inactivo el gen de la
telomerasa, que se traduce en la muerte celular, mientras que células que tienen activo el gen pueden mantenerlo de manera indefinida, lo
que significa una multiplicación ilimitada.
La doctora Mónica Molano, coordinadora del grupo de investigación en biología del cáncer del Instituto Nacional de Cancerología, asegura que
en estudios moleculares en los que se ha detectado la actividad de la telomerasa mediante el desarrollo de un ensayo denominado TRAP
(repetición telomérica del protocolo de amplificación), se ha encontrado asociación entre niveles altos de actividad de esta enzima y el
desarrollo de diferentes tipos de cáncer. "Entre los cánceres que se han estudiado se cuentan los de pulmón, páncreas, hepatocelular,
próstata, algunos de piel y ciertos tumores gastrointestinales, por lo cual se ha dicho que los niveles de actividad de la telomerasa podrían ser
de utilidad como marcadores de progresión tumoral".
A manera de conclusión, Molano dice que ha existido un gran esfuerzo por encontrar marcadores moleculares que puedan predecir qué
pacientes van o no a desarrollar cáncer.
"La enzima de la telomerasa está relacionada con el alargamiento de la vida de las células"
Mónica Molano Luque, coordinadora del grupo de investigación en biología del cáncer del Instituto Nacional de Cancerología.
"El descubrimiento de la telomerasa da esperanzas para encontrar soluciones que lleven a disminuir las tasas de incidencias de cáncer en el
mundo, así como en el tratamiento de enfermedades asociadas con el envejecimiento celular, en trasplantes y en la erradicación de las
infecciones fúngicas (hongos) que tienen lugar en pacientes inmunodeprimidos. Investigaciones y estudios clínicos que contribuyan a resolver
estos problemas beneficiarán a la población afectada y brindarán estrategias para desarrollar programas de prevención más eficientes".
CAMBIO CLIMÁTICO: LA TEMPERATURA SE VOLVIÓ LOCA
En los últimos 25 años caímos en cuenta de que el mundo comenzaba a calentarse y que las tragedias causadas por fenómenos
meteorológicos se disparaban. La certeza del cambio climático y el calentamiento global es uno de los más grandes ―y tristes―
descubrimientos de los últimos tiempos.
Las noticias resultan abrumadoras: huracanes, inundaciones, deshielos, aumento de la temperatura y una lista inagotable de evidencias de
que algo está pasando con la naturaleza. En efecto, aunque todas estas situaciones siempre han existido y el mundo siempre ha presentado
variaciones climáticas, el mayor ritmo al que se presentan actualmente estos fenómenos es una consecuencia de la contaminación producida
por el ser humano. María Cristina Durán, coordinadora del Programa Nacional de Medio Ambiente y Hábitat de Colciencias, explica que el
cambio climático "en buena medida es consecuencia de la emisión de gases provenientes de la industrialización y de otras prácticas derivadas
de las actividades humanas, como los cambios en el uso del suelo, el consumo energético y la deforestación".
El Panel Intergubernamental sobre Cambio Climático, creado en 1988, ha investigado las causas y las consecuencias de este fenómeno para
crear consenso sobre la necesidad de generar soluciones que remedien sus consecuencias, pues, como advierte Durán, "los efectos del cambio
climático están estrechamente relacionados entre sí y tienen que ver no sólo con las alteraciones climatológicas extremas sino también con la
pérdida de biodiversidad y las alteraciones en los ecosistemas, y por ende, con su capacidad de generación de servicios ecosistémicos".
La necesidad de crear políticas y acciones orientadas a atenuar las consecuencias del cambio climático es inmediata. "Las acciones de
contaminación y los daños ocasionados por la acción humana sobre la naturaleza ocurren en lapsos muy breves, pero la recuperación de los
mismos puede conllevar largos períodos de tiempo y dispendiosos procesos", recuerda María Cristina Durán, poniendo en evidencia la
importancia de actuar cuanto antes para detener estos daños.
"El retraso en la búsqueda de un acuerdo mundial es un crimen contra el planeta"
German I. Andrade, profesor de la Universidad de los Andes. Miembro del Consejo Científico del Instituto Alexander von Humboldt.
"Todo indica que las condiciones en la atmósfera están dadas para que el cambio sea irreversible. Podemos variar la magnitud y velocidad con
que se manifiesta. La diferencia entre tener un acuerdo mundial y no tenerlo es enorme. La dilación es un crimen contra el planeta. Debemos
mitigar las causas, cambiando las fuentes de energía, deteniendo la deforestación y restaurando millones de hectáreas degradadas. Y es
urgente adaptarnos al cambio inevitable. Muy importante en ese sentido es no seguir 'construyendo' nuestra propia vulnerabilidad en el
territorio".
BIOCOMBUSTIBLE: EL NUEVO PETRÓLEO
El efecto invernadero y la cada vez menor reserva petrolera, llevaron al mundo a buscar nuevos combustibles. En los últimos 25 años, la
respuesta fue hallada en la materia vegetal.
Es verdad: los combustibles producidos a través de procesos industriales que transforman la energía química almacenada en materias
vegetales, fueron originados casi en el mismo momento que los combustibles de fósil y los motores de combustión.
Sin embargo, la aplicación de estos como solución para la baja disponibilidad de los derivados del petróleo, el alza de los precios y la alta
contaminación, se inició finalizando los años 80.
"De manera paradójica ―dice Mauricio Rodríguez, gerente del programa nacional de biotecnología de Colciencias― la dependencia de los
combustibles fósiles, aunada a los impactos ambientales de su utilización y la notable disminución de las reservas de petróleo en el ámbito
mundial, ha originado en la actualidad un interés por encontrar alternativas que permitan disminuir el consumo de este tipo de combustibles.
En este marco, los biocombustibles son una opción a la que varios países han acudido en búsqueda de tener una canasta energética más
diversificada".
Y es que los beneficios del surgimiento de los biocombustibles han sido numerosos. Algunos de ellos son: la contribución a la disminución de
los gases de efecto invernadero, el desarrollo del sector agrícola y el avance tecnológico en cuanto a motores capaces de manejar diferentes
combustibles.
Materias vegetales como la caña de azúcar, el maíz, la remolacha azucarera, la celulosa, la yuca, la palma de aceite, el girasol, el algodón y la
jatropha, entre otras son algunos de los recursos utilizados para este fin.
Rodríguez asegura que el desarrollo de estos nuevos biocombustibles demandará investigación y desarrollo en áreas como: biociencias
avanzadas (genómica, biología molecular, y genética) para desarrollar alternativas que conviertan biomasa en lípidos, alcoholes, e
hidrocarburos líquidos que se integren fácilmente a la infraestructura de transporte; tecnologías para la producción de combustibles a partir de
materias primas renovables como las algas; y tecnologías para la producción de biomasa con rendimientos sostenibles que no compitan con
alimentos.
"Nuestro país podría convertirse en un importante exportador de biocombustibles"
Jorge Bendek, presidente ejecutivo de la Federación Nacional de Biocombustibles de Colombia.
"Es una realidad que las reservas de petróleo del mundo van en declinación. Por cada cinco barriles que se consumen, solamente un barril se
descubre. En Colombia, se ha fijado una meta de reemplazar el 20% de la gasolina y el 20% del ACPM o diesel petrolero, en el año 2020. Los
Estados Unidos alcanzarán esta meta en 2022. Si Colombia, para ese año, ha sembrado tres millones de hectáreas de palma de aceite y
450.000 de caña de azúcar, utilizaría el 9% de las áreas dedicadas a la ganadería extensiva, que la dirección mundial de la FAO ha
denominado de 'pasturas degradadas'. Así, nuestro país podría convertirse en un importante exportador de biocombustibles".
CIRUGÍA ROBÓTICA: CUANDO EL DOCTOR ES UN ROBOT
Que las máquinas lleguen a reemplazar al ser humano ya no es una ilusión. Un robot lleva años haciendo intervenciones quirúrgicas.
El primer robot que realizó un procedimiento quirúrgico fue el PUMA 560, que, guiado por un tomógrafo computarizado, fue usado para
obtener una biopsia cerebral. Más adelante, en 1988, el sistema Probot realizó una cirugía de próstata en el Colegio Imperial de Londres.
El más reciente, Da Vinci, que actualmente se encuentra en más de 1.200 partes del mundo, es también utilizado por la Clínica de Marly en
Bogotá. "Este sistema fue introducido por la compañía Intuitive Surgical con el fin de superar las limitaciones de las cirugías mínimamente
invasivas, y para aumentar la capacidad de los cirujanos al momento de realizar cirugías abiertas", afirma Pablo J. Patiño, director de fomento
de investigación de Colciencias. Esta máquina consta de tres partes: una consola donde el cirujano realiza los movimientos; el carro robótico
del paciente, conformado por cuatro brazos (un endoscopio y tres para los instrumentos); y el carro de procesamiento de imágenes.
"Actualmente ―continúa Patiño― la cirugía asistida por este robot se puede realizar mediante un computador que controla todos sus
movimientos, o por medio de un manipulador remoto que transmite los movimientos del cirujano, normalmente asociados con la cirugía, a los
brazos robóticos".
Da Vinci ha traído numerosas beneficios para los cirujanos y pacientes, como imágenes en tiempo real, precisión en el procedimiento,
recuperación posquirúrgica más rápida, menos dolor y sangrado, menor riesgo de infección y cicatrices más pequeñas, así como reducción de
los movimientos del cirujano que no tiene muy buen pulso.
Andrea Sánchez Higuera se sometió hace poco a una miomectomía realizada por Da Vinci. Ella dice: "Sentí incertidumbre y nervios, ya que no
tenía conocimientos claros sobre el uso de robots en la medicina ni de su implementación en Colombia. Sin embargo, basada en los resultados
y el bienestar que obtuve luego de la cirugía, considero que la robótica debería efectuarse en la mayoría de los procedimientos. Las ventajas
que ofrece esta clase de avance para el cuerpo médico y para los pacientes son múltiples y deben estar al servicio de todos".
"La cirugía robótica se encuentra en plena expansión"
Lulibey Rojas, enfermera jefe de Cirurobótica, Instituto de Cirugía Robótica.
"Actualmente se maneja el programa de cirugía robótica en las especialidades de urología y ginecología. Sin embargo, ya se inició el
entrenamiento de los cirujanos en la especialidad de cirugía general para realizar bypass gástrico. En la actualidad se busca realizar
procedimientos mínimamente invasivos, poco traumático para el paciente. Por tal motivo, se debe pensar en desarrollar instrumentos cada vez
más pequeños, adaptados al robot para lograr su uso en especialidades que en la actualidad no se manejan, como la ortopedia y
neurocirugía".
REGENERACIÓN DE LOS HUESOS: ¿HUESO PERDIDO? ¡HUESO NUEVO!
Como una solución a la osteoporosis y los problemas dentales, los especialistas llevan dos décadas valiéndose de la regeneración ósea. Se
cree que en poco tiempo cualquier hueso perdido podrá ser remplazado con otro igual, generado por el cuerpo.
Los daños en los huesos han contado con respuestas médicas como los insertos óseos, que pueden ser generados a partir de huesos del
mismo paciente, provenir de donaciones o constituirse a partir de materiales sintéticos. "La necesidad de materiales que puedan actuar como
sustitutos del injerto óseo o del cartílago articular ha propiciado el desarrollo de una nueva disciplina: la ingeniería tisular", comenta el director
de fomento a la investigación de Colciencias, Pablo Patiño, sobre una ciencia surgida en los años 80. Y la describe "como una solución
innovadora a la escasez de órganos disponibles para trasplantes".
Una de las innovaciones de la ingeniería tisular para el tratamiento de problemas óseos es la regeneración. El periodoncista Juan Carlos
Navarro explica de qué se trata: "Existe una diferencia entre reparación y regeneración. La reparación es un mecanismo de cicatrización con
sustitución de tejidos de otra naturaleza diferente al tejido involucrado; la regeneración es la reformación de tejido de la misma característica
del preexistente. En esencia el objetivo ideal de cualquier proceso de cicatrización es el de regresar el mismo tejido que existía antes de la
pérdida".
La investigación de la ingeniería tisular se orienta hacia los procesos regenerativos con células madre, y muchos profesionales no dudan en
afirmar que el futuro de su profesión está en la regeneración ósea. Este es el caso de la odontología, donde actualmente existen
procedimientos de implantes con regeneración, mínimamente invasivos. "El futuro de la regeneración ósea está en los procedimientos que
incorporan adicionalmente factores de crecimiento, los cuales se perfilan como la nueva generación de sustancias que promueven
cicatrización ósea acelerada utilizando moduladores bioquímicos y alejándonos de los puramente mecánicos utilizados hasta el momento",
añade Navarro.

"En la odontología, el sector de la regeneración ósea está en acelerado crecimiento"


Juan Carlos Navarro, periodoncista.
"Más del 60% de los procedimientos que precisan implantes requiere adicionalmente procedimientos de regeneración ósea. Este sector de la
odontología está en acelerado crecimiento. La regeneración reconstruye lo que se perdió. Sin la regeneración el odontólogo se ve obligado a
reconstruir protésicamente lo que no pudo biológicamente. Es un concepto técnicamente sensible que involucra un mayor nivel de
capacitación y entrenamiento de todo el equipo de trabajo".

TRATAMIENTO CONTRA EL VIH: AVANCES INMENSOS El sida aún no ha sido vencido del todo, pero desde 1987 se desarrollan en el mundo
antirretrovirales que le han quitado el carácter de padecimiento mortal para convertirlo en una enfermedad crónica controlable.
Fue exactamente hace 30 años, en 1981, cuando por primera vez se describió la enfermedad que un año más tarde recibió el nombre de
síndrome de inmunodeficiencia adquirida (sida). "Después de definir que la infección por VIH era responsable del sida, hemos presenciado un
mejoramiento continuo de los métodos para hacer el diagnóstico de la enfermedad y una búsqueda intensa de medicamentos para inhibir la
multiplicación del VIH en el organismo y frenar el proceso de destrucción del sistema de defensas, conocido como sistema inmune", dicen
Pablo J. Patiño, de Colciencias, y Carlos Julio Montoya, de la Universidad de Antioquia.

De acuerdo con Patiño y Montoya, la investigación ha dado buenos resultados, y ya desde 1987 se empezaron a utilizar antirretrovirales que
bloquean la replicación del virus: "Desde entonces, y gracias a las investigaciones que permitieron conocer el ciclo de vida del virus y sus
enzimas críticas, se han ido descubriendo nuevos medicamentos con capacidad de bloquear dichas enzimas e impedir el ingreso del virus a las
células, inhibiendo su infección y replicación."

Gracias a la terapia antirretroviral de gran actividad (TARGA), que combina la acción de varios antirretrovirales para controlar con mayor
eficacia la reproducción del VIH, la infección es ahora considerada una enfermedad crónica controlable y las enfermedades asociadas al sida se
han reducido en los lugares donde el tratamiento está disponible. La investigación ahora está orientada a perfeccionar "los medicamentos y
los esquemas de la TARGA, de manera que se garantice una mejor tolerancia, menor toxicidad y menor posibilidad de que el VIH se vuelva
resistente a ellos. Además, se busca desarrollar un tratamiento a base de sustancias de origen biológico, llamadas anticuerpos, que imiten la
acción de los antirretrovirales y se puedan administrar sólo una vez al mes", añaden los investigadores.

Hasta ahora, no ha sido posible desarrollar una vacuna debido a la rápida mutación del virus, pero esta posibilidad no se descarta. Mientras
tanto, Patiño y Montoya señalan que es importante "desarrollar estrategias para descubrir los reservorios del virus (células donde el VIH se
esconde, que no son destruidas por lo medicamentos actuales) y realizar su destrucción selectiva sin afectar otras células normales. También
se insiste en la investigación de tratamientos fundamentados en los mecanismos propios de defensa, de manera que los cambios permanentes
en la conformación del virus no originen resistencia".

"En los últimos 20 años se han desarrollado varios medicamentos que permiten una calidad de vida muy buena"
Luis Ángel Moreno, coordinador nacional de Onusida (Programa Conjunto de las Naciones Unidas sobre VIH-Sida). www.onusida.org.co

"Existen dos grandes recomendaciones para la terapia antirretroviral: la primera, mantener la ingesta continua, y la segunda, hacerlo en los
horarios y condiciones informados por el personal médico. La ventaja que se obtiene al tomar los medicamentos todos los días en las horas
acordadas permite su disponibilidad en el organismo de manera constante, lo que a su vez genera un efecto sostenido de inhibición de la
replicación viral. Consecuentemente, disminuyen el número de virus en el organismo, su capacidad para replicarse y la afectación del sistema
inmunológico de las personas. Algunos medicamentos requieren mantenerse en refrigeración para evitar que pierdan su efectividad".

NUEVOS MATERIALES: PAREDES, TELAS Y ÓRGANOS ¡INTELIGENTES!


En los últimos 25 años, los descubrimientos sobre el comportamiento molecular de la materia llevaron a la ciencia a un mejor
aprovechamiento de las propiedades de absolutamente todo lo creado hasta ahora.
La capacidad de hacer construcciones sismoresistentes, de almacenar información en dispositivos de apenas algunos milímetros o de crear
textiles con propiedades inteligentes, se ha desarrollado gracias a la comprensión molecular de los materiales.
"La ciencia de los materiales relaciona los arreglos de los átomos de la materia con las propiedades macroscópicas de ésta. El comportamiento
de los materiales queda definido por su composición química y su estructura, así como por sus propiedades físicas y mecánicas", asegura
Miguel Tobar, director del Programa Nacional de Biotecnología de Colciencias.

Estas propiedades físicas y mecánicas se utilizan para darles un valor agregado con fines industriales. Se trata de desarrollos con un alto nivel
de especialización, que exigen por lo tanto la confluencia de distintos conocimientos. "La investigación y desarrollo de nuevos materiales
constituye una actividad multidisciplinaria, que requiere el concurso de la física, la química, la biología, la matemática, la informática y la
ingeniería, así como niveles elevados de conocimiento científico y tecnológico", añade Tobar, quien da una idea sobre la diversidad de sus
aplicaciones cuando asegura que abarca desde la producción para computación hasta la industria textil.

Los retos de los materiales avanzados son cada vez mayores, pues, en palabras de Tobar, "deben efectuar una función en un periodo de
tiempo largo y sin fallas. Su producción debe ser fácil y económica y sus procesos de obtención y transformación deben ser tan inofensivos
para el medio ambiente como sea posible". La investigación del comportamiento atómico de la materia está orientada a cumplir estas
funciones, y se espera que, a mayor comprensión molecular, mayor sea la inteligencia de los materiales para todas sus aplicaciones.

"Las telas inteligentes son cada vez más cercanas al usuario promedio"
Ángela María Díez, gerente de mercadeo y comunicaciones para el norte de Suramérica de Invista Colombia.

"Los textiles inteligentes son telas con características especiales que representan un valor agregado aparte de las funciones básicas que todo
textil debe cumplir, que son cubrir y vestir. Son tejidos que pasan de ser simples telas funcionales a ser una extensión del cuerpo, capaz de
solucionar problemas (como el deterioro prematuro de un tejido por efecto de agentes dañinos como el cloro u otros químicos) o necesidades
(como el manejo de la humedad en el caso de los deportistas). Con respecto a sus propiedades, hablamos de físicas y químicas, como toda la
materia, pero su función dependerá del segmento de mercado o tipo de consumidor al que van dirigidos. Dentro de las físicas podemos
mencionar la refracción y toda alteración en la capacidad de protección a los cambios fuertes de temperatura. Entre las químicas, podemos
listar las que buscan mejorar aspectos como la corrosividad así como la resistencia a agentes externos. Encontramos también propiedades
antiácaros, de protección solar, luminiscentes, reflectantes, de camuflaje o mimetismo... En fin, la oferta ahora es bastante amplia".

Publicación
eltiempo.com
Sección
Otros
Fecha de publicación
28 de octubre de 2011
Google

EL buscador de Internet más utilizado y una de las marcas más conocidas a nivel mundial. Google además se está posicionando en la mayoría de los
sectores de la industria tecnológica (Android, Chrome) y regala múltiples servicios. El logro de dar a los usuarios un correo ilimitado lo ha masificado y la
gente lo agradece. Permite además difundir información libre no estando ligado a ningún régimen, país, religión o partido político.

La Telefonía Móvil

Su impacto en la comunicación es enorme. En muchos países hay más teléfonos móviles que número de habitantes. En esta última década se masificó
exponencialmente. De ser un artículo de lujo y oneroso, se ha convertido en una necesidad. En los últimos cinco años ha mejorado sustancialmente
servicios y aplicaciones.

Internet de banda ancha

La banda ancha transformó el Internet al globalizar la rapidez y la capacidad de la comunicación, que sigue creciendo. Ha permitido democratización de los
medios, aunque con riesgos e inconsistencias, que deberán corregirse. El acceso actual a Internet aun tiene deficiencias de cobertura por costos y logística,
pero su crecimiento e impacto son impresionantes. Aunque democratizó y masificó la comunicación, redujo la calidad y aumentó los riesgos.

Wi-Fi

Una tecnología complementaria a las anteriores que las optimiza, buscando acabar con los cables. Un avance formidable en comodidad y agilidad.

iPod Vs. iPad

Apple dominó el mercado en el 2001 con el primer reproductor que combinaría un diseño atractivo con facilidad de uso y buena capacidad con el iPod
marcando el inicio de la era de gloria para el MP3. El iPad, la tableta de Apple, ha provocado un auténtico terremoto en el sector de los medios. Hoy gran
parte de los diarios del mundo han migrado a este sistema.

iPhone

Es el teléfono móvil más impactante, por diseño, estilo y utilidad, marcando diferencias desde hace tres años. El aparato en sí cambió la comunicación móvil
y se convirtió en un ejemplo a seguir por todos los fabricantes. El iPhone que tiene una capacidad de innovación fantástica, es el referente para los más
sofisticados teléfonos móviles del mundo.
Redes Sociales

(Facebook, MySpace, Twitter): Sin duda han arrasado en usuarios formando gigantescas comunidades virtuales. Sin embargo han aparecido muchas
contradicciones, con variados problemas de uso, especialmente entre menores de edad.

Pantallas planas

Actualmente la tecnología predominante es LCD. Pero ya hay alternativas de mayor calidad como las pantallas LED u OLED. Y está llegando la tecnología en
3 dimensiones.

Vídeo de Alta Definición – Consolas de Videojuegos

Si bien hacen parte de un público muy especializado y segmentado, su impacto también es gigante como innovación tecnológica. El mundo de las
videoconsolas es caso aparte, ya que la industria del videojuego suele soportar mejor la crisis económica y siguen vendiéndose millones de unidades. Play
Station, PSP, Nintendo, Wii, Xbox, Game Cube….siguen en lucha constante por hacerse con el mercado.

Navegación GPS

Uno de los avances tecnológicos de última generación y más vendidos de los últimos años. Ha facilitado el mundo de las comunicaciones y transportes.
Facilita la orientación y ubicación planetaria.

Esta lista es un referente importante que podría permitir variadas modificaciones. Pero con seguridad que contiene avances que hoy transforman e
impactan el mundo. Puede ser susceptible de modificaciones más cualitativas, pero al menos hasta el 2014, no serán muchos lo movimientos sustanciales.
Aunque no faltan las sorpresas.

Si encuentras un error de sintaxis, redacción u ortográfico en el artículo, selecciónalo y presiona Shift + Enter o haz clic acá para informarnos. ¡Muchas
gracias!
Elemento Ano de Año de desaparición Tecnología que lo caracteristicas usos
aparición reemplazo

disco compacto (CD y CD- 1984.. …ESTA USB Funciona mediante un láser permitian grabar tanto audio
ROOM)
DESAPARECIENDO que lee -sin contacto físico- la como video, texto, imágentes,
información contenida en un etc. Estos CDs tuvieron más
disco de 12,7 centímetros de popularidad que los de vinilo
diámetro. debido a las funciones más
avanzadas que tenían y a su
resistencia ante las ralladuras

sistema operativo 1985 Vigente actualizado y la primera versión de este sistema operativo usado por la
Windows mejorado
software, basado en texto mayor parte de los
de IBM . computadores personales del
planeta.

Buscapersonas 1987 1996 celular Se usaba para recibir en


mensaje de texto, mensajes
telefónicos por medio deuna
central.

Auge del celular en 1992 vigente . iPhone


Colombia

Discman 1996 2010 iPod, usados para la reproducción de


CDs.

MEMORIA USB 1997 VIGENTE Pequeño dispositivo de Almacenar archivos, música,


almacenamiento de datos videos

iPod, 2001 mejorado iPod Nano e El iPod es un dispositivo


iPod Touch portátil que les permite a
las personas almacenar su
música favorita y
escucharla en el lugar que
prefieran.
1984
Mouse: la empresa Apple lanzó un computador personal denominado Macintosh, que fue el primero en usar una herramienta nueva para controlar el computador, el mouse o
ratón.
1985
Windows 1.1: la empresa Microsoft, de Bill Gates, presentó la primera versión de este software, que con el tiempo se convirtió en el sistema operativo usado por la mayor
parte de los computadores personales del planeta.
1987
Buscapersonas: estos aparatos, que proporcionan mensajes telefónicos, fueron inventados por la sociedad alemana Bosch.
1990
Telescopio espacial: el Hubble sigue obteniendo las más notables imágenes del universo.
1991
MiniDisc (MD): Sony lanzó los discos ópticos similares a los CD, pero más pequeños, contenidos en un estuche cuadrado similar al de los disquetes.
1995
Playstation: este sistema de videojuegos de Sony aún sigue vigente.
1996
Discman: equipo portátil para escuchar CDs.
1997
Videograbador digital: esta cámara de video no requiere de una cinta. Digitaliza las imágenes, que pueden ser traspasadas automáticamente a un computador, mediante
un disco de almacenamiento.
Lector de DVD (disco versátil digital): se trata de la videolectora de discos ópticos de alta densidad, similares a los discos compactos (CD), pero su capacidad de
almacenamiento es entre 7 y 13 veces superior.

S-ar putea să vă placă și