Sunteți pe pagina 1din 31

Historia de Internet.

En éste primer capítulo, veremos de una forma resumida la historia de


internet desde sus comienzos hasta el día de hoy y trataremos de prever que
es lo que se aproxima para los próximos años, dando por supuesto una mirada
al desarrollo de esta tecnología en nuestro país.

Corría el año 1957 y la Unión de Repúblicas Socialistas Soviéticas


lanza al espacio el primer satélite artificial en orbitar a la tierra, el Sputnik,
ustedes podrán suponer que en pleno escenario de guerra fría, esto causó
un gran revuelo en todo el mundo, pero fundamentalmente asustó al gobierno
de los Estados Unidos de Norte América quienes rápidamente decidieron
contrarrestar lo ofensiva rusa .
Al año siguiente (1958) el gobierno de Estados Unidos de Norte América,
establece ARPA (Advance Research Project Administration) en respuesta al
lanzamiento del Sputnik. Si bien ARPA tenía como misión el lanzamiento de
un satélite en menos de 18 meses, pronto se comenzaron a concentrar en
las tecnologías de comunicación y en la redes de computadores.
Historia de Internet

En 1960 Theodore Holm Nelson propone un proyecto llamado Xanadu,


el cual consistía en un “docuverse” es decir un único documento global que
cubra todo lo escrito en el mundo, mediante el uso de muchos computadores
interconectados. Los documentos se podrían referenciar utilizando lo que el
llamo un hipertexto.

Ya en el año 1962 el director de ARPA


decide no sólo incluir a empresas privadas
sino que también decide incluir a
SRI
universidades en el desarrollo de tecnología. XDS
940
De esta inclusión surge lo que más tarde
se conocerá como ARPANET.
IMP
Durante el año 1965 se IMP DEC
PDP-10
implementa la “red
experimental” cuyo UTAH
propósito fue IBM
experimentar 360/75 IMP
respecto a las nuevas UCSB
tecnologías que IMP
estaban surgiendo.
Ahora no sólo en Estados Unidos XDS
W-7
de Norte América se estaba trabajando en
UCLA
tecnologías de redes, es así como en paralelo durante el año 1967 en Inglaterra
un grupo de ingenieros de la National Physical Laboratory(NPL) en Middlesex,
Inglaterra desarrollan la “Red NPL” que consistía en una red que conmutaba
paquetes de datos y ocupaba una línea telefónica de 768 kbps, fue la primera
vez que se ocupó el concepto de “paquete de datos”.

En el año 1969, se produce la primera transmisión de datos entre dos


computadores ubicados en la universidad de UCLA y el otro en Stanford.

El primer intento de envío de datos consistió en enviar la palabra “Login”,


pero sólo lograron enviar “Lo” y al enviar el carácter “g” el sistema colapsó.
Si bien el éxito no fue completo, ya se había iniciado la revolución.

Hacia 1971 éste era el aspecto que tenía ARPANET:


Historia de Internet

En 1971 ya existían 15 nodos en esta gran red, y se crea un programa que


permite enviar correo electrónico a través de redes distribuidas.
Ese mismo año en Chile, se comienza la construcción de un proyecto
revolucionario a nivel mundial a cargo del teórico y académico en investigación
operacional cibernética organizacional Stanford Beer de nacionalidad inglesa.
El proyecto llamado “Cybernetic Synergy” o proyecto Synco, el cual consistía
en la transmisión de datos económicos en tiempo real a las empresas que
eran propiedad del estado para poder mejorar los procesos productivos y así,
mediante un software que ocupaba un sistema bayesiano poder crear un
modelo prospectivo dinámico.

En 1972 se modifica el programa de correo electrónico y se selecciona el


signo “@” para definir la palabra “en” (at en inglés) de esa forma el correo
electrónico queda formado por el nombre identificador del usuario “en” un
servidor (diego@opendev.cl, es el equivalente al usuario diego en el servidor
opendev.cl)

Además se crea el primer programa que puede almacenar, buscar, listar,


reenviar y responder mensajes de correo electrónico.
Ese mismo año, DARPA (Defense Advance Research Project Administration),
el sucesor de ARPA, decide hacer una presentación pública del funcionamiento
de ARPANET y para esto en una conferencia de computadores y
comunicaciones, deciden instalar una estación para que los usuarios puedan
interactuar con ARPANET y sus servicios la cual incluyo el uso de 40
computadores (todo un record). Fue un éxito rotundo y los asistentes al evento
no paraban de hablar de la red.

En 1973 ARPANET se conecta con las primeras computadoras en el extranjero,


University College of London (Inglaterra) y el Royal Radar Establishment
(Noruega), surge el concepto de Ethernet.

En 1974 surge TCP (Transmission Control Protocol, Protocolo de control de


transmisión) como una forma de lograr la estabilidad de la red en caso de un
Historia de Internet

ataque, éste protocolo se orienta al control de las transmisiones y a asegurar


que los datos lleguen desde el emisor al receptor de forma correcta.
En 1975 se crea el primer enlace de una red de computadores vía satélite
entre Hawaii y el Reino Unido.

En 1977 comienza el funcionamiento oficial de SATNET, red de datos vía


satélite. Además se construye el primer módem de acceso a la red para
particulares, lo que permitió que las personas pudieran conectarse desde su
casa a ARPANET y ocupar todos sus servicios (ftp, email y gopher).

En 1978 un visionario empresario envió un correo masivo a más de 600


usuarios de ARPANET ofreciendo sus productos, surge el primer SPAM de la
historia. En éste año adicionalmente se crea el protocolo TCP/IP que fusiona
2 protocolos TCP e IP.

Pero las redes no sólo se


desarrollan en Estados Unidos
de Norte América sino que
también en Europa, siendo la
más grande todas la red de
CERN (Centre European pour la
Centre European
Recherche Nucleaire). Es así
pour la Recherche Nucleaire
como para principios de los años
80 existen al menos 4 redes importantes a nivel mundial, ARPANET, CERNET,
BITNET y NSFNET. La cantidad de nodos crece de forma exponencial, pasando
de algunos cientos a finales de los 70 a más de 100.000 a mediados de los
80.

El año 1980 Tim Berners-Lee propone


el proyecto ENQUIRE al CERN, el cual
contiene las bases teóricas de lo que
más adelante se conocerá como la
World Wide Web.

En 1981 surge BITNET como una red


para proveer de correo electrónico a
las universidades que no tenían acceso
a ARPANET.
Puesto que existían numerosas redes,
Tim Berners-Lee
que compartían diferentes arquitecturas
y protocolos de comunicación, se llega
a un acuerdo y ARPANET adopta
TCP/IP como protocolo de comunicación en 1982, Unos meses antes, Noruega
Historia de Internet

es el primer país en dejar ARPANET y utilizar TCP/IP como protocolo para


sus redes, eso sí, se conectan a SATNET (red vía satélite).

El año 1983 la Universidad de


Wisconsin desarrolla el Servidor de
Nombres, que permite transformar una
dirección IP en un nombre, de esta
forma los usuarios no tendrán que
aprenderse los números IP de los
servidores y podrán reemplazarlos por
un “nombre de dominio”. Ese mismo
año, ARPANET se separa en Universidad de Wisconsin
ARPANET y MILNET, los primeros
computadores personales se conectan
a Internet usando software de red IP.

El año 1984 DNS Domain Name Server es introducido a la red y se


transforma en la espina dorsal de Internet tal como lo conocemos hoy día.
Ese mismo año la Unión de Repúblicas Socialistas Soviéticas anuncia su
enlace a USENET.
Como ya existía el DNS comenzó rápidamente el registro de nombres
de dominio, el año 1985 se crean las primeras extensiones para los dominios
.com (comercio), .edu (educación), .gov (gobierno), .org (Organizaciones sin
fines de lucro), .uk (dominio para las páginas del Reino Unido)

Pero como no todo podía ser color de rosa, el año 1986 ocurre una
serie de colapsos de internet producto de una alta congestión en las redes,
el dominio .fi (Finlandia) es registrado.
Ese mismo año ocurre un hito importante para nosotros, el envío del
primer correo electrónico entre 2 redes diferentes. Esto ocurrió entre abril y
mayo de 1986 con un email enviado entre el Departamento de Ciencias de
la Computación (DCC) de la Universidad de Chile y el Departamento de
Ingeniería en Informática (DII) de la Usach. El contenido del email fue “Si
éste mail te llega, abramos una botella de champaña”. Éste gran avance para
el Internet nacional se realizó con 2 módem de 300 bps y una línea telefónica
directa, todo bajo plataforma Unix. Ese mismo año se procede a la inscripción
del dominio para el ruteo de las direcciones IP con las extensiones “.cl”.

Luego de esa exitosa prueba, se realiza el primer enlace internacional utilizando


tecnología Unix (UUCP) y una línea de datos X.25, éste enlace se realiza con
Francia. Luego se compran módems telefónicos a Estados Unidos de Norte
América y se realiza un enlace al país del norte, el cual fue gratuito, y sólo
se debía cancelar la línea telefónica.
Historia de Internet

A finales de 1986 se aprueba la entrada de Chile a BITNET, la red


universitaria más grande del mundo en esos momentos.

Para el año 1987 el número de host de internet ya supera los 10000.

El año 1988 un gusano de


Internet afecta a 6000 de los ya
60000 host de internet, el nombre
del gusano era Morris y es
conocido como el primer ataque
de un gusano a la red. Su creador
Robert Tappan Morris de 23 años,
cometió un error al programar éste
gusano, el error costó un total de
96 millones de dólares y colapsó
el 90% de la red antes de ser
detenido. El software de sólo 99 Robert Tappan Morris
líneas de código aprovechaba una
debilidad de SendMail y era capaz
de auto replicarse y de romper las contraseñas de los sistemas utilizando un
diccionario de contraseñas comunes, de esta forma lograba entrar a los
equipos, y replicarse a todas las cuentas de email de la máquina en la que
estaba. Si quieren pueden encontrar el código fuente del gusano en la dirección
http://www.foo.be/docs-free/morris-worm/worm/.
Producto de éste ataque, se crea CERT (Computer Emergency Response
Team), para poder responder a éste tipo de necesidades.
Internet crece a pasos agigantados y ya en 1989 el número de host ya supera
los 100000, en Estados Unidos de Norte América surge el primer proveedor
de correo electrónico de forma comercial MCI Mail.

En 1989 Tim Berners-Lee, vuelve a trabajar al CERN y ve la oportunidad


de revivir su proyecto ENQUIRE, que utiliza hipertexto para enlazar la
información. El proyecto no tiene muy buena acogida y queda relegado, pero
la historia ya le dará su revancha.

El año 1990 ARPANET deja de existir como tal, ese mismo año,
aparece el primer proveedor comercial de Internet “The World comes on-line”.
Nuevamente Tim Berners-Lee con la ayuda de Robert Cailliau realizan
una propuesta que es aceptada por el gerente de CERN, esta vez utilizan las
ideas de ENQUIRE y crean la World Wide Web, para esto diseñaron el primer
navegador llamado ViolaWorldWideWeb y el primer servidor Web llamado
httpd (HyperText Tranfer Protocol daemon).
Historia de Internet

El año 1991 Tim Berners-Lee anuncia al mundo la creación de la “World


Wide Web”, el primer servidor es nxoc01.cern.ch, lanzado en Noviembre de
1990 y posteriormente renombrado como info.cern.ch.
Las tecnologías de transmisión de datos ya comienzan a despegar y
para ese año surgen los nodos T3 con velocidades de transmisión de datos
de 44736 Mbps. El tráfico de NSFNET supera el trillón de bytes al mes con
10 billones de paquetes de datos al mes.

Para el año 1992 el número de


hosts supera el millón. El Banco
Mundial se vuelve on-line. Se acuña
el término “surfeando en internet”, el
término es acuñado por Jean Armour
Polly
El gobierno de Estados Unidos
de Norte América crea su propio
servidor de correo, al año siguiente
Banco Mundial
lanza por primera vez su sitio web.
Ese mismo año, surge el primer
navegador específicamente para la web, Mosaic tiene una interfaz gráfica tan
atractiva y fácil de usar que se transforma en un rotundo éxito y sienta las
bases para todos los navegadores que conocemos hasta el día de hoy. Internet
tiene un crecimiento explosivo del 342% anual.
Ese año la NSF (entidad reguladora de Internet) acepta el ingreso de
los 2 consorcios que peleaban el acceso a internet Reuna, y Unired, de esa
forma y pese a NSF sólo aceptaba un consorcio por país, Chile logró su
ingreso con mucho éxito y por partida doble.

En 1994 se celebran los 25 años de ARPANET/Internet. Por primera


vez los comercios entran en la web y por fin, es posible pedir pizza on-line
(gracias Pizza-Hut). Ya para éste año el tráfico para NSFNET pasa el trillón
de bytes por mes. Dado el auge de internet los gobiernos comienzan a tener
presencia en la red, el primer ciberbanco entra en operación. El primer banner
publicitario aparece en la página hotwired.com en octubre de ese año.

Ese mismo año, Tim Berners-Lee que se había trasladado desde el


CERN hasta el Instituto Tecnológico de Massachussetts funda la W3C (World
Wide Web Consortium) organización sin fines de lucro compuesta por empresas
y universidades de todo el mundo la cual es la encargada de estudiar y
proponer las tecnologías más adecuadas para el uso de la Web. La Web a
diferencia de otras tecnologías no se basa en estándares sino que en
recomendaciones, las cuales no son obligatorias de acatar y son de libre
Historia de Internet

acceso y gratuitas.

Sun lanza Java en Mayo de 1995, ese mismo año


RealAudio crea una tecnología que permite utilizar la
red para enviar y recibir una señal de audio casi en
tiempo real. Ese mismo año el registro de dominios ya
no es gratuito, exigiendo un pago de 50 dólares anuales.

En 1996, la telefonía internet se vuelve el foco


de atención de algunas compañías y se realiza una
sesión interactiva de chat de 10 minutos. Ese mismo
año comienza la guerra de los navegadores, entre
Microsoft con su producto Internet Explorer y Netscape
con su navegador Navigator.

En 1998 se estima que el rango de revistas en


Internet ya supera las 275 y ya existen más de 320 millones de páginas. Se
crea ICANN (Internet Corporation for Assigned Numbers) la cual reemplazará
al gobierno en el control y manejo de los números IP y nombres de dominio.
Surgen tecnologías nuevas para la red como XML y el comercio
electrónico.

El año 1999 SETI (Search for Extra Terrestrial Intelligence) lanza


SETI@home un sistema que
permite procesar datos entra varios
usuarios permitiendo que estos
usuarios creen una fuerza de
procesamiento más grande que la
mayor supercomputadora de la
época.

Se crea el primer enlace


transatlántico entre dos redes
ocupando Internet2, éste enlace conecta NORDUNET y SURFNET.
Una nueva tecnología llamada 802.11b, más conocida como Wi-Fi se
estandariza.

Para el año 2000 toda la tecnología de la web se ve amenazada por el


efecto 2000, para los que aún no nacían o eran demasiado pequeños para
recordar algo, el efecto 2000 se produjo porque mucho del software realizado
hasta la época ocupaba sólo 2 dígitos para representar el año (00 hasta el
99), por lo que al llegar al año 2000 el año volvería a ser 00 y los efectos de
esto en el software sobre todo en el software de los bancos e instituciones
Historia de Internet

financieras eran insospechados por lo que se comenzaron a tomar medidas


correctivas para solucionar el problema. Producto de las medidas tomadas,
sólo algunos servicios alrededor del mundo se ven afectados.
Ese año un ataque masivo ocupando DoS (Denial of Service) es lanzado
de forma coordinada hacia los mayores sitios de la web incluyendo Yahoo,
Amazon e Ebay.
La cantidad de páginas web ya sobrepasa el billón de páginas. Ese
mismo año es hackeada la página de Microsoft. Se crea la tecnología ASP.

La velocidad de transferencia de
datos se hace cada vez más
rápida y ya es posible ver el
primer musical distribuido usando
Internet2, llamado “El tecnófobo y
el Loco” (The Technophobe & The
Madman). Ese mismo año se
realiza la primera transmisión en The Technophobe & The Madman
tiempo real de HDTV sin
comprimir a través de una red
usando Internet2. Comienza a hacerse masivo el uso de P2P para compartir
archivos entre usuarios.

El 2002 Internet2 cada vez se expande más, ahora esta red llamada
Abilene, ya soporta de forma nativa IPv6, y a ella están unidas más de 200
universidades alrededor del mundo, 60 corporaciones y 40 miembros afiliados.
Éste año comienza el boom de los blog.
El gobierno Suizo, realiza la primera elección on-line en Anières el
7 de Enero. El gusano SQL Slammer causa uno de los ataques más rápidos
y de mayor distribución en la red, utiliza un ataque DDos (Distributed Denial
of Service), el ataque afecta a 5 de los 13 servidores raíz DNS, esto causa
que miles de sistemas queden sin servicio desde cajeros automáticos hasta
servicios de emergencia y sistemas de control de tránsito. Ese mismo año en
Agosto el virus Sibig.F y luego el gusano Blaster, utilizan Internet para
propagarse y atacar a miles de sistemas alrededor de todo el mundo.
El último segmento de Abilene (Internet2) se actualiza de 2,5Gbps a
10Gbps.

El año 2004 se recuerda porque ese año por primera vez existen más servidores
de raíz DNS fuera de Estados Unidos de Norte América. Comienzan a emerger
con fuerza las redes sociales y los Web MashUp.
Terminan las fases de prueba para Internet2 la cual comienza a cambiar de
Abilene a su nueva red. Ese año comienza a emerger la tecnología llamada
Cloud Computing.
Historia de Internet

Estonia ofrece el año 2007 las primeras elecciones de parlamento on-line. La


red Abilene es retirada y las últimas conexiones son cambiadas a nueva red
Nivel 3.
El 2008 la NASA prueba de forma exitosa la primera comunicación de
redes en el espacio profundo utilizando una tecnología llamada DTN (Disruption-
Tolerant Networking), utilizada para transmitir imágenes desde y hacia una
nave espacial a 20 millones de millas de distancia de la tierra.

Ese mismo año el buscador de Google, alcanza la no despreciable cifra


de 1 trillón de páginas indexadas, en 1998 sólo había indexado 26 millones
de páginas y el 2000 había alcanzado el billón de indexaciones.
Las direcciones de IPv6 se agregan por primera vez a de los servidores raíz
DNS.

El 2009 se comienza a hacer


más popular el concepto de
virtualización y el uso de Cloud
Computing, las empresas luchan
aún con más ahínco contra el uso
indiscriminado de las redes sociales
y el chat en las empresas. La
ICANN abre la opción de registro
de dominios internacionales. Éste año también la Facultad de Informática de
la universidad Politécnica de Madrid pone en marcha el primer observatorio
astronómico que se puede manejar a control remoto utilizando una interfaz
web.

El 2010 nos trajo algunas sorpresas de la mano del explosivo uso de


Tweeter(1) en todos los ámbitos (hasta nuestros políticos lo usan). El uso de
las redes sociales en caso de catástrofes se volvió más activo que nunca,
basta ver los ejemplos de los terremotos de Haití y de Chile.

En cuanto a las nuevas tecnologías de la web, el fin de los números IP


de IPv4 hace más urgente aún la adopción de IPV6. Los usuarios activos de
Internet alcanzan la no despreciable suma de 1,76 billones de personas. Asia
concentra el mayor porcentaje de usuarios con más del 40% de todos los
usuarios y el acceso a internet usando dispositivos móviles crece de forma
acelerada alcanzando casi el 80% en algunos países.

Las nuevas tecnologías tienden a romper fronteras entre el


procesamiento local y el remoto, el masivo uso de “Cloud Computing” y la
virtualización de escritorios como una solución para abaratar costos usando
Historia de Internet

la tecnología web crean una alentadora perspectiva para nuevos servicios y


tecnologías.

Hasta ahora has conocido de forma breve la historia de internet desde


sus inicios hasta el día de hoy, esta tecnología está presente en casi todas
nuestras actividades diarias y supone un gran cúmulo de tecnologías que
empezamos a descubrir.

Glosario:

Tweeter :

Es un sitio web de microblogging que permite a sus usuarios enviar y leer


microentradas de texto de una longitud máxima de 140 caracteres denominados
tweets. El envío de estos mensajes se puede realizar tanto por el sitio web
de Twitter, como vía SMS (short message service) desde un teléfono móvil,
desde programas de mensajería instantánea o incluso desde cualquier
aplicación de terceros, como por ejemplo Turpial, Twitterrific, Tweetie,
Facebook, Twinkle, Tweetboard, TweetDeck, Xbox 360, Nokia, Pidgin, Chromed
Bird, Echofon, Blackberry, Hootsuite, Twitterfeed, UberSocial, Tuenti o Sony
Ericsson.
Como funciona una red

La forma en que una red funciona está asociada a una serie de variables
como por ejemplo el medio que se ocup a para la transmisión de los datos,
la forma en que los datos se transmiten, los niveles de seguridad y una serie
de otras características que definen la forma en que la red funciona.

Analicemos de forma general como trabaja una red. Un computador o


punto de la red desea transmitir datos a otro comput ador, para lograrlo los
dos deben de conocer mutuamente cuál es su dirección. Una vez esto se
conoce, el emisor utiliza un canal de comunicación o medio p ara enviar los
Funcionamiento de la red

datos. El receptor debe de poder recibir en su tot alidad los datos y por lo
tanto comprobar qué “lo recibido es lo enviado”.

Como lo anterior es muy difícil de lograr dadas las características


propias de la red (const ante crecimiento, fallos del medio o del hardware,
ruido, etc.), se comenzaron a realizar una serie de mejoras en las tecnologías
que dan soporte a la transmisión de datos en una red de comput adores.

Arquitectura OSI/ISO

El modelo de arquitectura que define OSI (Open System Interconnection) es


un modelo desarrollado por la ISO (International Standar Organization) que
define una serie de cap as o niveles. Cada uno de estos niveles define una
serie de protocolos que permitieron a los distintos fabricantes y creadores de
tecnología el tener una guía o patrón a seguir para desarrollar sus productos
y que estos fueran fáciles de conectar unos con otros.
Las capas que define el modelo OSI son 7:

1. Capa física.

2. Capa de enlace de datos.

3. Capa de red.

4. Capa de transporte.

5. Capa de sesión.

6. Capa de presentación.

7. Capa de aplicación.
Veamoslas una a una.

Capa física.

Se encarga de transformar los datos existentes en el computador que están como


una secuencia de 0 y 1 de tal forma que puedan ser transmitidos por un medio y que
el receptor pueda recuperar la secuencia de bits originales. Adicionalmente la capa
física permite definir la capacidad del canal o ancho de banda. Otra característica de
la capa física es definir el medio de transmisión, las características de los materiales,
manejar las señales eléctricas, garantizar la conexión y definir las características para
establecer, mantener y liberear el enlace físico.
Funcionamiento de la red

Capa de enlace de datos.

Esta capa se encarga del direccionamiento físico, de la forma en que se entra al


medio, la detección de errores, la forma en que se crean los enlaces entre los equipos
y la red. Recibe peticiones de la capa de red y utiliza los servicios de la capa física.

Capa de red.

El objetivo de esta capa es asegurar que los datos lleguen desde un equipo a otro
aunque los dos no se encuentren conectados directamente. Para esto ocupa tecnologías
como asignar direcciones de redes únicas, encaminar paquetes, utilizar un control de
congestión y control de errores.

Capa de transporte.

Capa encargada de efectuar el transporte de los datos desde el origen al destino, de


forma independiente del tipo de red física que se está usando.

Capa de sesión.

Esta capa es la encargada de mantener y controlar el enlace que se realizó entre dos
computadores para la transmisión de datos. La función de esta capa es la de mantener
la sesión entre los dos computadores de principio a fin mientras se realiza la transmisión
de datos y reanudarla si es que se interrumpe.
Capa de presentación.

Esta capa actúa a nivel del contenido de los datos más que a nivel de la transmisión
permitiendo que diferentes equipos que tratan o procesan los datos de forma distinta,
puedan entenderse y enviar y recibir datos sin problemas. Actúa como una especie
de traductor, pudiendo comprimir y encriptar datos.

Capa de aplicación.

Es la capa que ocupa los servicios de las otras capas y define los protocolos
que se utilizan para el intercambio de datos, como por ejemplo HTTP, FTP,
POP SMTP, etc.

Funcionamiento de la red
iveles de pensamiento:
Actividades

1.- Representa ORVGLVWLQWRVWLSRVGHFDSDV


COMPRENSIÓN:

que forman una arquitectura OSI/ISO.


Representar

Aplicación Proceso de red a aplicaciones

Presentación Representación de datos

Sesión Comunicación entre hosts

Transporte Conexiones de extremo a extremo

Red Direccionamiento y mejor ruta

Enlace de Datos Acceso a los medios

Física Transmisión binaria


Protocolo TCP/IP

Es en realidad un conjunto de
protocolos, está formado por dos
partes TCP(Transfer Control
Protocol) Protocolo de Control de
Transferencia y por IP(Internet
Protocol) Protocolo de Internet.

Como es un conjunto de protocolos


que definen o dan las bases del
funcionamiento de internet a
menudo se los llama una “familia” de protocolos. Esta familia está compuesta
por más de 100 protocolos diferentes entre los que se encuentran HTTP, POP,
SMTP, TELNET y varios protocolos más. Fue un protocolo creado por ARPA
y cumple ciertos criterios como:

• Dividir mensajes en paquetes

• Usar un sistema de direcciones para ubicar al origen y al destino en


una red
URI, URL, URN

• Enrutar los datos en una red

• Detectar errores en la transmisión.

Esta familia de protocolos se comporta muy bien cuando existe una gran
cantidad de tramas de datos que enrutar.

Direcciones de Internet

Una dirección de internet no es más que un conjunto de letras, números y


símbolos que permiten tu identificación de forma única en internet. Las
direcciones de internet permiten identificar a los equipos dentro de la red y
enrutar los datos desde y hacia ellos. Todos los equipos que se conectan a la red
deben tener una dirección de internet (dirección IP) única. Esta dirección IP es un
número binario de 32 bits (4 grupos de 8 bits) que identifica a un equipo de manera
lógica y jerárquica.
Los seres humanos estamos más acostumbrados a trabajar y recordar palabras que
números, por lo tanto se crean los nombres de dominio que corresponden a un nombre
que enmascara a una dirección IP, para resolver el par ordenado de nombre de
dominio, número IP, se crean los servidores DNS que se encargan de transformar el
nombre en la dirección IP y enrutar la petición al destino que corresponde.

Puertos
Puertos / URI, URL, URN

Un puerto es la definición genérica que


posee cualquier canal de comunicación
en un computador para el envío y
recepción de datos. Existen dos tipos de
puertos, lógicos y físicos. Los puertos
físicos permiten la conexión entre
dispositivos como monitores, impresoras,
cámaras digitales, etc. Los puertos
lógicos son por el contrario una zona o
localización de memoria que se asocia
con un puerto físico y que se ocupa como un almacén temporal de datos. De esta
forma múltiples aplicaciones pueden ocupar un único puerto físico, ya que cada una
posee distintos almacenes de memoria temporal.

Existen algunos puertos lógicos que se asignan por acuerdo o convenio internacional,
la IANA (Internet Assigned Numbers Authority) determina las asignaciones de todos
los puertos comprendidos entre el 0 y el 1023. Por ejemplo el puerto 21 se asocia con
aplicaciones que ocupan FTP, el puerto 80 con HTTP, el puerto 25 con SMTP y el 23
con TELNET. Los números de puerto desde el 1024 hasta el 65535 se pueden registrar
en consenso con IANA. Estos puertos lógicos son manejados por software que se
encarga de realizar la gestión entre la memoria y el hardware.

URI, URL, URN

Esta siglas definen 3 formas distintas de poder identificar un recurso en una red,
veámoslas en detalle.

Una URN (Uniform Resource Name) o nombre de recurso uniforme, es decir es la


forma que se puede nombrar e identificar un recurso en una red, esta forma no define
la ubicación del elemento, sólo lo nombra.
Por otro lado una URL (Uniform Resource
Locator) o Localizador uniforme de
recursos, es una secuencia de caracteres
que permiten nombrar un recurso en una
red y además localizarlos. Como es
uniforme, está compuesta por algunas
partes que son comunes y estas son: el
nombre del computador, la ruta donde se
encuentra el recurso y el nombre del
recurso y el protocolo necesario para recuperar el recurso. Adicionalmente se pueden
agregar cosas como el nombre de usuario y la contraseña o el puerto de acceso, por
ejemplo:
Protocolos de Comunicación

http://www.codeproject.com/KB/architecture/usecasepoints.aspx

Una URI (Uniform Resource Identifier) o identificador uniforme de recursos, extiende


aún más allá la URL descomponiendo la estructura en las siguientes partes:

• Esquema que permite la identificación del recurso, el cual a veces también


incluye el protocolo (HTTP, FTP, etc.)

• El servidor en el cual se ubica el recurso.

• La ruta en el servidor en el cual se ubica el recurso.

• Una consulta con información no jerárquica asociada a un par ordenado de


atributo y valor el cual indica su inicio mediante el carácter “?”.

• Un fragmento que permite identificar parte de un recurso principal o una vista


del mismo, el comienzo del fragmento está definido por el carácter “#”.

Algunos ejemplos de esto son:

http://www.inacap.cl/tportalvp/?t=39

http://www.microsoft.com/web/gallery/categories.aspx?category=eCommerce

http://es.wikipedia.org/wiki/Protocolo_de_Internet#Enrutamiento
Protocolos de comunicación.

Un protocolo es un conjunto de reglas


utilizadas por los computadores para
comunicarse entre sí utilizando una red.
Los protocolos son implementados
mediante una combinación de hardware
y software.
Tecnologías / Seguridad

Las funciones de los protocolos son


básicamente las siguientes: establecer
el canal de comunicación, establecer la transmisión, realizar la transmisión, verificar
la transmisión, finalizar la transmisión y cortar el canal. Adicionalmente el protocolo
debe encargarse de gestionar los errores en la transmisión y de volver a conectar los
equipos en caso de pérdida de la conexión.

Cada uno de los protocolos existentes está pensado para realizar una tarea específica,
es por eso que existen tantos y sus funciones son tan diversas, algunos ejemplos son
los siguientes:

Ftp (file transfer protocol) permite la transmisión de archivos entre computadoras.

Http (hypertext transfer protocol) permite la transmisión de datos que utilizan el formato
de hipertexto para crear los archivos.

Pop3 (post office protocolo) permite la administración de correo electrónico

Seguridad y
encriptación.

La seguridad de los datos en una


red utilizando tecnologías de
internet es un tema bastante
complicado sobre todo pensando
en la cantidad de datos y en la
importancia que estos datos
puedan tener para un proceso en
específico.
La seguridad de los datos se puede asegurar de cierta forma utilizando la encriptación
de los datos. Los datos que viajan por la red son susceptibles de capturar y por lo
tanto de interpretar por personas inescrupulosas. Esto se puede hacer debido a que
los protocolos de internet desde su inicio no fueron pensados para esconder la
información sino que todo lo contrario, se pensaron para compartirla. Una forma de
proteger los datos es encriptando los datos que van a ser enviados para asegurar de
alguna forma que si estos son interceptados, no sea claro su significado.

Para encriptar los datos se ocupa un algoritmo que permite el transformar los datos
originales en otros datos cuyo significado sea distinto o simplemente no se entiendan.

Existen básicamente dos tipos de algoritmos de encriptación, los simétricos y los


asimétricos. En internet se ocupa básicamente algoritmos asimétricos basados en lo
que se denomina una clave pública. La clave pública es conocida por todos y es la
que utilizan los emisores para encriptar el mensaje. Asociada a esta clave pública
existe una clave que es conocida exclusivamente por el destinatario y que permite
que sólo esta persona pueda descifrar los datos encriptados.
Firma Digital

Existen varios niveles de encriptación que se definen como pares ordenados en


función de la cantidad de bits que posee la clave privada y la clave pública por ejemplo
existen versiones de 40-512 bits, 128-1024, etc.

Se supone que mientras más bits se ocupan para la encriptación es más difícil de
desencriptar en el caso de que se intercepten los paquetes, pues la cantidad de
alternativas que debe probar el software que trate de “adivinar” la clave se expresa
en 2^40 o 2^128, ahora si bien esto aumenta la seguridad no es infalible, ya se ha
demostrado que ocupando un par de procesadores de doble núcleo y el software
adecuado, la clave se puede obtener un par de días e incluso horas.

Firma Digital.

La firma digital funciona de la misma


forma que una llave pública. Esta
firma permite autentificar que un
documento o mensaje digital fue
creado por el remitente y que no fue
alterado durante la transmisión. A
menudo los conceptos de firma digital
y de firma electrónica se confunden,
estos son conceptos totalmente
distintos. Mientras la firma digital involucra métodos criptográficos, la firma electrónica
es un concepto más amplio que no necesariamente involucra criptografía.

La firma digital se basa en el uso de un función hash que es un algoritmo matemático


que permite utilizar una clave para crear un número que identifica de forma única el
contenido y el autor. Éste algoritmo es en un solo sentido es decir que teniendo el
número no se puede averiguar el contenido, pero al tener la clave y aplicarla al
contenido, el resultado de la aplicación del algoritmo debería ser el mismo número
creado anteriormente.

La firma digital además debe ser comprobada en cuanto a su vigencia, es decir que
esta puede caducar.

Los certificados de firma digital los asignan instituciones correctamente acreditadas


por el gobierno y que prestan el servicio de autenticar esta firma digital contra sus
bases de datos.
Tecnologías web

En chile hay algunas empresas que se dedican a emitir certificados de firma digital
como por ejemplo e-certchile o certisur.

Tecnologías asociadas a la web.

Como la web contiene una amplia gama de tecnologías que le dan soporte (hardware,
software, diseño, etc.) nos vamos a concentrar específicamente en las tecnologías
que tienen que ver con la web.

Una de los primeros conceptos que


vamos a aprender es el concepto de la Web
2.0. Éste concepto acuñado a finales de los
años 90 y que resurge con fuerza el año 2002
en varias publicaciones realizadas de forma
simultánea, hace referencia a la utilización de
tecnología que ya existe pero que se aplica de
forma distinta. Los sitios creados con Web 2.0
se caracterizan porque trabajan sobre un modelo
de “arquitectura de participación”, en la cual el
usuario aporta datos al sistema, pero además
tiene control sobre estos y eso permite que se
pueda agregar valor a la aplicación.
Adicionalmente el concepto de
Web 2.0 se centra en la experiencia
del usuario al utilizar las aplicaciones
web. Las nuevas páginas web están
basadas en la participación activa
respecto al contenido, con la adición
de interfaces lo más parecidas a las
aplicaciones de escritorio y con el uso
de multimedios, de forma tal de poder
conquistar a la audiencia.

La tecnología utilizada en esta nueva forma de enfrentar la red, es el uso de


mucha tecnología del lado del cliente como AJAX (Asynchronous JavaScript And
XML), frameworks o conjuntos de librerías de JavaScript pre programadas como
Yahoo! UI, JQuery, Dojo Toolkit, MooTools y Google Ajax API. Además del uso de
frameworks multimedia creados por Adobe como Adobe Flash y Adobe Flex o la
tecnología desarrollada por Microsoft conocida como SilverLight, el cual tiene su símil
en el proyecto Moonlight una implementación open source de Silverlight para GNU/Linux
Tecnologías web

y Unix.

Por el lado del servidor se sigue ocupando mucha de la tecnología que ya se


usaba en la llamada Web 1.0 es decir PHP, Ruby, ColdFusion, Perl, Python, pero en
éste caso es usada principalmente para leer y guardar datos en bases de datos.

Un concepto que aparece de la mano de la Web 2.0 es el concepto de RIA


(Rich Internet Application), es decir aplicaciones que pueden funcionar indistintamente
como una aplicación de escritorio o como una aplicación web. Otro concepto es el
de SOA (Service Oriented Architecture), es decir que las aplicaciones pueden exponer
su funcionalidad, de tal forma que otras aplicaciones puedan ocuparlas, permitiendo
crear aplicaciones más ricas.

El concepto de Web Social, que también surge de la mano de la Web 2.0 se


asocia a la posibilidad real que tienen los usuarios de interactuar con el contenido y
de transformarse en una parte integral de la generación de contenidos.

La web 3.0 es un concepto un poco más complejo y apunta a una modificación


de las tecnologías existentes. Si bien las tecnologías ya están disponibles, la aplicación
práctica de éstas se ve estancada por una serie de fenómenos.

Primero la Web 3.0 pretende la transformación de la red en una base de datos,


es decir que el contenido quede disponible para un conjunto de aplicaciones que no
necesariamente sean navegadores. Las tecnologías de la Web 3.0 apuntan a la
utilización de datos semánticos y el uso de inteligencia artificial para realizar procesos
denominados como inteligencia semántica.

Para realizar éste proceso, se requiere de la utilización de un lenguaje de


generación de contenido semántico que esté estandarizado, para esto la W3C realizó
una recomendación para el uso de RDF y OWL. Si bien Tim Berners-Lee en su
concepción original ya había ideado la web como un conjunto de información
semánticamente indexable, su propuesta no pudo ser llevada a cabo fundamentalmente
por problemas tecnológicos.
Servidores de Dominio

La aparición de RDF, OWL y XML, permiten que los dispositivos que no estén
basados en un navegador, puedan consultar los documentos y extraer información
de ellos. Esto abre un mundo de nuevas posibilidades a niveles insospechados en
dónde la información almacenada y la información respecto a la información serán
decisivas en la forma en que los sistemas se comportan. El surgimiento de SPARQL
permite transformar a la web en una gran base de datos con la posibilidad de buscar
información específica y más aún, con la posibilidad de solicitar a robots basados en
redes neuronales de inteligencia artificial que realicen los procesos de búsqueda
indexación y filtro de los datos que contendrán estos nuevos archivos web.

Otra gran innovación que traerá pronto la Web 3.0 es la inclusión de visión 3D.
Esta tecnología liderada por la Web3D Consortium, implica la transformación de la
web en una serie de espacios 3D donde los usuarios podrán colaborar en un entorno
cada vez más cercano a la realidad física. Esta tecnología utiliza en estos momentos
el lenguaje VRML (Virtual Reality Modeling Language) y su sucesor el X3D (eXtensible
3D)

Servidores de Dominio.

Vamos a analizar ahora de forma un poco más


precisa cómo funcionan los servidores de dominio
y cuál es la función que prestan dentro del mundo
del internet.

Los servidores DNS (Domain Name Server)


permiten traducir un nombre de dominio en un
numero IP y viceversa. Esto permite que las
personas podamos recordar de mejor forma el
nombre de un servidor y así no tener que lidiar
con el número IP.
De esta forma en un nombre de dominio la jerarquía se lee de derecha a izquierda.
Por ejemplo en el dominio www.inacap.cl la jerarquía mayor o dominio más alto es
“cl”.

Cada componente del dominio tiene un servidor primario y varios secundarios de tal
forma que toso ellos tengan la misma autoridad para responder frente a una petición.
Sólo el servidor primario tiene derecho a realizar modificaciones en la tabla, los
secundarios sólo pueden replicar la tabla de nombres/ip.Las tablas de asignación de
nombre/ip se actualizan constantemente y tardan alrededor de 24 horas en estar
disponibles en todo el mundo. Por lo tanto cuando inscribes un nombre de dominio,
la actualización a los servidores DNS del mundo demora al menos un día.

Supongamos que necesitas encontrar un recurso en un servidor, al utilizar un nombre


de dominio para alcanzar el recurso, el servidor DNS trata de transformar el nombre
del servidor en una dirección IP, si no lo consigue, envía la petición al servidor DNS
de nivel superior y a los del mismo nivel, cuando la petición vuelve al origen sin ser
respondida, significa que éste nombre no se encuentra asociado a ningún numero
NIC / InterNIC

IP, si te ha sucedido te podrás dar cuenta que el tiempo que tardan los servidores en
responder es muy breve.

Los dominios NIC e InterNIC.

Para poder registrar un nombre de dominio en el árbol “.cl” es necesario que la


inscripción la hagas en la unidad correspondiente que es el Departamento de Ciencias
de la Computación perteneciente a la Facultad de Ciencias Físicas y Matemáticas de
la Universidad de Chile. El trámite de registro consiste básicamente en determinar
si el nombre de tu dominio está disponible y correctamente compuesto. Para realizar
éste primer paso, debes dirigirte a la página http://www.nic.cl e ingresar a la sección
de inscripción de dominios, tal como lo muestra la imagen
Una vez que el sistema te avisa que tu dominio está disponible, debes pasar
por 9 pasos que te permitirán registrar el dominio.

InterNIC, es la abreviatura de Internet Network Information Center, el cual


fue el primer organismo encargado de gestionar los nombres de dominio y
las direcciones IP hasta el año 1998 año en el que esta actividad fue encargada
a la ICANN (Internet Corporation for Assigned Names and Numbers). La
ICANN se encarga de gestionar los nombres DNS y el espacio de direcciones
para la resolución de nombres de dominio que no pertenecen a un árbol o
jerarquía mayor asociado específicamente a un país.

Por ejemplo los dominios “.com”, “.net”, “.jobs”, “.travel” y “.xxx” son dominios
manejados por ICANN. Para transparentar el proceso de registro de los
nombres de estos dominios se realiza una licitación pública en la cual diferentes
empresas pueden vender, comprar y registrar dominios, pues estos dominios
se cuentan como un activo para las empresas.
NIC / InterNIC
Términos importantes
para construir sitios
Web.

Usabilidad.

La Usabilidad es la medida de la
calidad de la experiencia que tiene
un usuario cuando interactúa con
un producto o sistema. Esto se
mide a través del estudio de la
relación que se produce entre las
herramientas (entendidas en un
sitio web cómo el conjunto integrado por el sistema de navegación, las
funcionalidades y los contenidos ofrecidos) y quienes las utilizan, para
determinar la eficiencia en el uso de los diferentes elementos ofrecidos en
las pantallas y la efectividad en el cumplimiento de las tareas que se pueden
llevar a cabo a través de ellas. El experto en el tema, Jakob Nielsen desarrolló
la siguiente pauta para mejorar la usabilidad:
Usabilidad

• Visibilidad del estado del sistema: el sistema siempre debería


mantener informados a los usuarios de lo que está ocurriendo, a través de
retroalimentación apropiada dentro de un tiempo razonable.

• Relación entre el sistema y el mundo real: el sistema debería


hablar el lenguaje de los usuarios mediante palabras, frases y conceptos que
sean familiares, más que con términos relacionados con el sistema. Seguir
las convenciones del mundo real, haciendo que la información aparezca en
un orden natural y lógico.

• Control y libertad del usuario: hay ocasiones en que los usuarios


elegirán las funciones del sistema por error y necesitarán una “salida de
emergencia” claramente marcada para dejar el estado no deseado al que
accedieron, sin tener que pasar por una serie de pasos. Se deben apoyar
las funciones de deshacer y rehacer.

• Consistencia y estándares: los usuarios no deberían cuestionarse


si acciones, situaciones o palabras diferentes significan en realidad la misma
cosa; siga las convenciones establecidas.

• Prevención de errores: mucho mejor que un buen diseño de mensajes


de error es realizar un diseño cuidadoso que prevenga la ocurrencia de
problemas.

• Reconocimiento antes que recuerdo : se deben hacer visibles los


objetos, acciones y opciones, El usuario no tendría que recordar la información
que se le da en una parte del proceso, para seguir adelante. Las instrucciones
para el uso del sistema deben estar a la vista o ser fácilmente recuperables
cuando sea necesario.

• Flexibilidad y eficiencia de uso: La presencia de aceleradores,


que no son vistos por los usuarios novatos, puede ofrecer una interacción
más rápida a los usuarios expertos que la que el sistema puede proveer a
los usuarios de todo tipo. Se debe permitir que los usuarios adapte el sistema
para usos frecuentes.
Accesibilidad

• Estética y diseño minimalista: los diálogos no deben contener


información que es irrelevante o poco usada. Cada unidad extra de información
en un diálogo, compite con las unidades de información relevante y disminuye
su visibilidad relativa.

• Ayudar a los usuarios a reconocer, diagnosticar y recuperarse


de errores: Los mensajes de error se deben entregar en un lenguaje claro
y simple, indicando en forma precisa el problema y sugerir una solución
constructiva al mismo.

• Ayuda y documentación: incluso en los casos en que el sistema


pueda ser usado sin documentación, podría ser necesario ofrecer ayuda y
documentación. Dicha información debería ser fácil de buscar, estar enfocada
en las tareas del usuario, con una lista concreta de pasos a desarrollar y no
ser demasiado extensa.

Accesibilidad:

La accesibilidad Web significa que


personas con algún tipo de
discapacidad van a poder hacer
uso de la web. Ya que el software
tiene un papel importante en la
accesibilidad de la web, es
importante que ayude a los
desarrolladores a generar y
evaluar sitios web accesibles para
que las personas con discapacidad puedan utilizarlos. La Web Accessibility
Initiative (WAI) entrega una serie de lineamientos que ayudan en éste sentido,
cómo por ejemplo:

• Imágenes y animaciones: Use el atributo alt para describir la función


de cada elemento visual.

• Mapas de imagen: Use el elemento map y texto para las zonas activas.

• Multimedia: Proporcione subtítulos y transcripción del sonido, y


descripción del video.
Internacionalización

• Enlaces de hipertexto: Use texto que tenga sentido leído fuera de


contexto. Por ejemplo, evite "pincha aquí".

• Organización de las páginas: Use encabezados, listas y estructura


consistente. Use CSS para la maquetación donde sea posible.

• Figuras y diagramas: Descríbalos brevemente en la página o use el


atributo longdesc.

• Scripts, applets y plug-ins: Ofrezca contenido alternativo si las funciones


nuevas no son accesibles.

• Marcos: Use el elemento noframes y títulos con sentido.

• Tablas: Facilite la lectura línea a línea. Resuma.

• Revise su trabajo: Verifique. Use las herramientas, puntos de


comprobación y pautas de http://www.w3.org/TR/WCAG.

Internacionalización

La internacionalización es el diseño
y desarrollo de un producto, una
aplicación o el contenido de un
documento de modo tal que permita
una fácil localización con destino a
audiencias de diferentes culturas,
regiones o idiomas.
La internacionalización generalmente
implica:
• Un modo de diseño y desarrollo que elimine obstáculos a la localización
o la distribución internacional. Esto incluye cuestiones tales como (entre otras)
usar Unicode o asegurar, allí donde corresponda, un correcto tratamiento de
las codificaciones de caracteres anticuadas; controlar la concatenación de
cadenas; o evitar que la programación dependa de valores de cadenas
pertenecientes a la interfaz de usuario.

• Habilitar características que tal vez no sean usadas hasta el momento


de la localización. Por ejemplo, añadir en la DTD etiquetas para habilitar el
texto bidireccional o la identificación de idiomas. O hacer la CSS compatible
con texto vertical u otras características tipográficas ajenas al alfabeto latino.
Política de Patentes

• Preparar el código para hacer frente a las preferencias locales,


regionales, lingüísticas o culturales.

Por lo general, esto supone incorporar características y datos de localización


predefinidos a partir de bibliotecas existentes o de las preferencias del usuario.
Algunos ejemplos son: formatos de fecha y hora, calendarios locales, formatos
y sistemas de números, ordenamiento y presentación de listas, uso de nombres
personales y formas de tratamiento, etc.
• Separar del código o contenido fuente los elementos localizables, de
modo que puedan cargarse o seleccionarse alternativas localizadas según
determinen las preferencias internacionales del usuario.
• Obsérvese que esta lista no incluye necesariamente la localización del
contenido, la aplicación o el producto hacia otro idioma; se trata más bien de
prácticas de diseño y desarrollo que facilitan esa migración en el futuro, pero
que también pueden tener una utilidad considerable aunque la localización
jamás se produzca.

Política de Patentes:

Se trata de una serie de directrices o normas a través de las cuales el W3C


establece la forma de gestionar las
patentes en el proceso de creación y
desarrollo de estándares Web con el
objetivo de hacer posible la difusión,
adopción y continuo desarrollo de
estándares Web sin los problemas que
puedan aparecer en relación a
derechos de autor. Es decir, el objetivo
principal de esta política es asegurar
que las recomendaciones del W3C,
desarrolladas bajo esta política, sean
implementadas libres de derechos de autor.

La Política de Patentes del W3C promueve la implementación a gran


escala de las Recomendaciones del W3C, estableciendo claramente los
requisitos de Licencia libre de Derechos de autor, asegurando la disponibilidad
de las licencias de forma universal, y haciendo públicas las restricciones y
limitaciones.

La Política de Patentes resuelve excepciones a través de su denominado


PAG (Grupo Asesor de Patentes). Se trata de un Grupo de Trabajo constituido
con el objetivo de resolver los conflictos que puedan surgir mediante el
Tecnología Multimedia

desarrollo de una recomendación. Aconseja al W3C sobre los mecanismos


para hacer frente a los problemas ocasionados por patentes en la creación y
desarrollo de estándares Web abiertos.

Tecnología Multimedia:

Las tecnologías multimedia crean una web más atractiva gracias a la


introducción de imágenes escalables, sonido de alta calidad, vídeo, efectos
3D y animación, que aportan al usuario una experiencia más rica en la
navegación por la Web. Entre las tecnologías a destacar están:
La introducción de todos estos elementos de forma compatible se convierte
en una labor complicada para desarrolladores. Por éste motivo, las
especificaciones desarrolladas por el W3C trabajan en la creación de lenguajes
en los que esta multimedia enriquecida sea compatible con los diversos
dispositivos y navegadores existentes en el mercado.
Entre las tecnologías a destacar están:
• SVG (Gráficos Vectoriales Escalables), que es un vocabulario XML de
descripción de gráficos de dos dimensiones y de aplicaciones gráficas. SVG
se utiliza en diferentes áreas incluyendo gráficos Web, animación, interfaz de
usuario, intercambio de gráficos, aplicaciones móviles y diseño de alta calidad.
SVG está basado en otros estándares de gran uso cómo JPEG y PNG.

• PNG (Gráficos de Red Portátiles) para formato de imágenes,


Directorios Virtuales / Errores Personalizados

• DOM para interactividad y scripting,

• SMIL (Lenguaje de Integración de Multimedia Sincronizada) para


animación.

• CSS (Hojas de Estilo en Cascada) para dar estilo.

Directorios Virtuales:

Un directorio virtual es un nombre sencillo o alias de un directorio físico del


disco duro del servidor o del directorio principal de otro equipo que no está
ubicado en el directorio principal. Puesto que el alias suele ser más corto
que la ruta de acceso del directorio físico, a los usuarios les resulta más
cómodo escribirlo. El uso de alias es también seguro, ya que los usuarios no
conocen el lugar del servidor donde están ubicados físicamente los archivos
y, por tanto, no pueden utilizar esa información para modificarla. Además,
con los alias es más fácil mover directorios en el sitio. En lugar de cambiar
la dirección URL del directorio, puede cambiar la asignación entre el alias y
la ubicación física del directorio.

Errores Personalizados:

Debido a que algunas veces los


errores devueltos por el servidor
web dan demasiada información
acerca de la aplicación que los
produce y que esa información
puede incluso ser usada para iniciar
un ataque contra el servidor, los
servidores web ofrecen la
posibilidad de que los webmasters
puedan configurar las respuestas
que muestra el servidor cuando se
producen algunos errores o problemas. Así, se puede usar para mostrar
errores algo más “amigables” o adaptados a un propósito o aplicación concreta
o que puedan orientar al usuario por vías alternativas de solución.
Por ejemplo, si un script termina de forma anormal y se produce una respuesta
"500 Server Error", el servidor podrá ser configurado para responder usando
una de las siguientes alternativas:

1. Desplegar un texto diferente, en lugar de los mensajes de la NCSA.


Errores Personalizados

2. Redireccionar la petición a una URL local.

3. Redireccionar la petición a una URL externa.

Redireccionar a otra URL puede resultar de utilidad, pero solo si con ello se
puede también pasar alguna información que pueda explicar el error o problema
y/o registrarlo en el log correspondiente más claramente.
Bibliografía de imágenes:

http://www.7sur7.be/7s7/fr/1505/Monde/article/detail/532147/2008/12/05/Le-
plus-grand-accelerateur-de-particules-redemarrera-en-2009.dhtml

http://www.ayushkumar.com/tim-berners-lee-father-of-html

http://www.universidades.com/universidad-foto.asp?contenido=200354&foto=5

http://www.puntoclick.cl/banco-mundial-llega-a-acuerdo-de-cooperacion-con-chile-
para-eliminar-pobreza-extrema/

http://www.milbits.com/888/tutorial-java-quince.html

http://aesthetic-machinery.com/technophobe.html

http://alianzacom.com/comunicacion_estrategica_online/2010/09/03/los-mitos-y-
realidades-del-cloud-computing/

3D: Fco. Rocco


Bibliografía de imágenes

S-ar putea să vă placă și