31
Historia de Internet Historia de Internet. En éste primer capítulo, veremos de una forma resumida la historia de internet desde sus comienzos hasta el día de hoy y trataremos de prever que es lo que se aproxima para los próximos años, dando por supuesto una mirada al desarrollo de esta tecnología en nuestro país. Corría el año 1957 y la Unión de Repúblicas Socialistas Soviéticas lanza al espacio el primer satélite artificial en orbitar a la tierra, el Sputnik, ustedes podrán suponer que en pleno escenario de guerra fría, esto causó un gran revuelo en todo el mundo, pero fundamentalmente asustó al gobierno de los Estados Unidos de Norte América quienes rápidamente decidieron contrarrestar lo ofensiva rusa . Al año siguiente ( 1958) el gobierno de Estados Unidos de Norte América, establece ARPA (Advance Research Project Administration) en respuesta al lanzamiento del Sputnik. Si bien ARPA tenía como misión el lanzamiento de un satélite en menos de 18 meses, pronto se comenzaron a concentrar en las tecnologías de comunicación y en la redes de computadores. En 1960 Theodore Holm Nelson propone un proyecto llamado Xanadu, el cual consistía en un “docuverse” es decir un único documento global que cubra todo lo escrito en el mundo, mediante el uso de muchos computadores interconectados. Los documentos se podrían referenciar utilizando lo que el llamo un hipertexto. Ya en el año 1962 el director de ARPA decide no sólo incluir a empresas privadas sino que también decide incluir a universidades en el desarrollo de tecnología. De esta inclusión surge lo que más tarde se conocerá como ARPANET. Durante el año 1965 se implementa la “red experimental” cuyo propósito fue experimentar respecto a las nuevas tecnologías que estaban surgiendo. Ahora no sólo en Estados Unidos de Norte América se estaba trabajando en SRI IMP IMP UTAH UCLA UCSB XDS 940 IBM 360/75 DEC PDP-10 XDS W-7 IMP IMP

Html

Embed Size (px)

DESCRIPTION

HTML

Citation preview

His

tori

a de

Inte

rnet

Historia de Internet.

En éste primer capítulo, veremos de una forma resumida la historia deinternet desde sus comienzos hasta el día de hoy y trataremos de prever quees lo que se aproxima para los próximos años, dando por supuesto una miradaal desarrollo de esta tecnología en nuestro país.

Corría el año 1957 y la Unión de Repúblicas Socialistas Soviéticaslanza al espacio el primer satélite artificial en orbitar a la tierra, el Sputnik,ustedes podrán suponer que en pleno escenario de guerra fría, esto causóun gran revuelo en todo el mundo, pero fundamentalmente asustó al gobiernode los Estados Unidos de Norte América quienes rápidamente decidieron contrarrestar lo ofensiva rusa .

Al año siguiente (1958) el gobierno de Estados Unidos de Norte América,establece ARPA (Advance Research Project Administration) en respuesta allanzamiento del Sputnik. Si bien ARPA tenía como misión el lanzamiento deun satélite en menos de 18 meses, pronto se comenzaron a concentrar enlas tecnologías de comunicación y en la redes de computadores.

En 1960 Theodore Holm Nelson propone un proyecto llamado Xanadu,el cual consistía en un “docuverse” es decir un único documento global quecubra todo lo escrito en el mundo, mediante el uso de muchos computadoresinterconectados. Los documentos se podrían referenciar utilizando lo que elllamo un hipertexto.

Ya en el año 1962 el director de ARPAdecide no sólo incluir a empresas privadassino que también decide incluir auniversidades en el desarrollo de tecnología.De esta inclusión surge lo que más tardese conocerá como ARPANET.

Durante el año 1965 seimplementa la “redexperimental” cuyopropósito fueexperimentarrespecto a las nuevastecnologías queestaban surgiendo.

Ahora no sólo en Estados Unidosde Norte América se estaba trabajando en

SRI

IMP

IMP

UTAH

UCLA

UCSB

XDS940

IBM360/75

DECPDP-10

XDSW-7

IMP

IMP

tecnologías de redes, es así como en paralelo durante el año 1967 en Inglaterraun grupo de ingenieros de la National Physical Laboratory(NPL) en Middlesex,Inglaterra desarrollan la “Red NPL” que consistía en una red que conmutabapaquetes de datos y ocupaba una línea telefónica de 768 kbps, fue la primeravez que se ocupó el concepto de “paquete de datos”.

En el año 1969, se produce la primera transmisión de datos entre doscomputadores ubicados en la universidad de UCLA y el otro en Stanford.

El primer intento de envío de datos consistió en enviar la palabra “Login”,pero sólo lograron enviar “Lo” y al enviar el carácter “g” el sistema colapsó.Si bien el éxito no fue completo, ya se había iniciado la revolución.

Hacia 1971 éste era el aspecto que tenía ARPANET:

En 1971 ya existían 15 nodos en esta gran red, y se crea un programa quepermite enviar correo electrónico a través de redes distribuidas.Ese mismo año en Chile, se comienza la construcción de un proyectorevolucionario a nivel mundial a cargo del teórico y académico en investigaciónoperacional cibernética organizacional Stanford Beer de nacionalidad inglesa.El proyecto llamado “Cybernetic Synergy” o proyecto Synco, el cual consistíaen la transmisión de datos económicos en tiempo real a las empresas queeran propiedad del estado para poder mejorar los procesos productivos y así,mediante un software que ocupaba un sistema bayesiano poder crear unmodelo prospectivo dinámico.

En 1972 se modifica el programa de correo electrónico y se selecciona elsigno “@” para definir la palabra “en” (at en inglés) de esa forma el correo

His

tori

a de

Inte

rnet

electrónico queda formado por el nombre identificador del usuario “en” unservidor ([email protected], es el equivalente al usuario diego en el servidoropendev.cl)

Además se crea el primer programa que puede almacenar, buscar, listar,reenviar y responder mensajes de correo electrónico.Ese mismo año, DARPA (Defense Advance Research Project Administration),el sucesor de ARPA, decide hacer una presentación pública del funcionamientode ARPANET y para esto en una conferencia de computadores ycomunicaciones, deciden instalar una estación para que los usuarios puedaninteractuar con ARPANET y sus servicios la cual incluyo el uso de 40computadores (todo un record). Fue un éxito rotundo y los asistentes al eventono paraban de hablar de la red.

En 1973 ARPANET se conecta con las primeras computadoras en el extranjero,University College of London (Inglaterra) y el Royal Radar Establishment(Noruega), surge el concepto de Ethernet.

En 1974 surge TCP (Transmission Control Protocol, Protocolo de control detransmisión) como una forma de lograr la estabilidad de la red en caso de unataque, éste protocolo se orienta al control de las transmisiones y a asegurarque los datos lleguen desde el emisor al receptor de forma correcta.En 1975 se crea el primer enlace de una red de computadores vía satéliteentre Hawaii y el Reino Unido.

En 1977 comienza el funcionamiento oficial de SATNET, red de datos víasatélite. Además se construye el primer módem de acceso a la red paraparticulares, lo que permitió que las personas pudieran conectarse desde sucasa a ARPANET y ocupar todos sus servicios (ftp, email y gopher).

En 1978 un visionario empresario envió un correo masivo a más de 600usuarios de ARPANET ofreciendo sus productos, surge el primer SPAM de lahistoria. En éste año adicionalmente se crea el protocolo TCP/IP que fusiona2 protocolos TCP e IP.

Pero las redes no sólo sedesarrollan en Estados Unidosde Norte América sino quetambién en Europa, siendo lamás grande todas la red deCERN (Centre European pour laRecherche Nucleaire). Es asícomo para principios de los años

His

tori

a de

Inte

rnet

Centre Europeanpour la Recherche Nucleaire

80 existen al menos 4 redes importantes a nivel mundial, ARPANET, CERNET,BITNET y NSFNET. La cantidad de nodos crece de forma exponencial, pasandode algunos cientos a finales de los 70 a más de 100.000 a mediados de los80.

El año 1980 Tim Berners-Lee proponeel proyecto ENQUIRE al CERN, el cualcontiene las bases teóricas de lo quemás adelante se conocerá como laWorld Wide Web.

En 1981 surge BITNET como una redpara proveer de correo electrónico alas universidades que no tenían accesoa ARPANET.Puesto que existían numerosas redes,que compartían diferentes arquitecturasy protocolos de comunicación, se llegaa un acuerdo y ARPANET adoptaTCP/IP como protocolo de comunicación en 1982, Unos meses antes, Noruegaes el primer país en dejar ARPANET y utilizar TCP/IP como protocolo parasus redes, eso sí, se conectan a SATNET (red vía satélite).

El año 1983 la Universidad deWisconsin desarrolla el Servidor deNombres, que permite transformar unadirección IP en un nombre, de estaforma los usuarios no tendrán queaprenderse los números IP de losservidores y podrán reemplazarlos porun “nombre de dominio”. Ese mismoaño, ARPANET se separa enARPANET y MILNET, los primeroscomputadores personales se conectana Internet usando software de red IP.

El año 1984 DNS Domain Name Server es introducido a la red y setransforma en la espina dorsal de Internet tal como lo conocemos hoy día.Ese mismo año la Unión de Repúblicas Socialistas Soviéticas anuncia suenlace a USENET.

Como ya existía el DNS comenzó rápidamente el registro de nombresde dominio, el año 1985 se crean las primeras extensiones para los dominios.com (comercio), .edu (educación), .gov (gobierno), .org (Organizaciones sin

His

tori

a de

Inte

rnet

Universidad de Wisconsin

Tim Berners-Lee

fines de lucro), .uk (dominio para las páginas del Reino Unido)

Pero como no todo podía ser color de rosa, el año 1986 ocurre unaserie de colapsos de internet producto de una alta congestión en las redes,el dominio .fi (Finlandia) es registrado.

Ese mismo año ocurre un hito importante para nosotros, el envío delprimer correo electrónico entre 2 redes diferentes. Esto ocurrió entre abril ymayo de 1986 con un email enviado entre el Departamento de Ciencias dela Computación (DCC) de la Universidad de Chile y el Departamento deIngeniería en Informática (DII) de la Usach. El contenido del email fue “Siéste mail te llega, abramos una botella de champaña”. Éste gran avance parael Internet nacional se realizó con 2 módem de 300 bps y una línea telefónicadirecta, todo bajo plataforma Unix. Ese mismo año se procede a la inscripcióndel dominio para el ruteo de las direcciones IP con las extensiones “.cl”.

Luego de esa exitosa prueba, se realiza el primer enlace internacional utilizandotecnología Unix (UUCP) y una línea de datos X.25, éste enlace se realiza conFrancia. Luego se compran módems telefónicos a Estados Unidos de NorteAmérica y se realiza un enlace al país del norte, el cual fue gratuito, y sólose debía cancelar la línea telefónica.

A finales de 1986 se aprueba la entrada de Chile a BITNET, la reduniversitaria más grande del mundo en esos momentos.

Para el año 1987 el número de host de internet ya supera los 10000.

El año 1988 un gusano deInternet afecta a 6000 de los ya60000 host de internet, el nombredel gusano era Morris y esconocido como el primer ataquede un gusano a la red. Su creadorRobert Tappan Morris de 23 años,cometió un error al programar éstegusano, el error costó un total de96 millones de dólares y colapsóel 90% de la red antes de serdetenido. El software de sólo 99líneas de código aprovechaba unadebilidad de SendMail y era capazde auto replicarse y de romper las contraseñas de los sistemas utilizando undiccionario de contraseñas comunes, de esta forma lograba entrar a losequipos, y replicarse a todas las cuentas de email de la máquina en la que

His

tori

a de

Inte

rnet

Robert Tappan Morris

estaba. Si quieren pueden encontrar el código fuente del gusano en la direcciónhttp://www.foo.be/docs-free/morris-worm/worm/.

Producto de éste ataque, se crea CERT (Computer Emergency ResponseTeam), para poder responder a éste tipo de necesidades. Internet crece a pasos agigantados y ya en 1989 el número de host ya superalos 100000, en Estados Unidos de Norte América surge el primer proveedorde correo electrónico de forma comercial MCI Mail.

En 1989 Tim Berners-Lee, vuelve a trabajar al CERN y ve la oportunidadde revivir su proyecto ENQUIRE, que utiliza hipertexto para enlazar lainformación. El proyecto no tiene muy buena acogida y queda relegado, perola historia ya le dará su revancha.

El año 1990 ARPANET deja de existir como tal, ese mismo año,aparece el primer proveedor comercial de Internet “The World comes on-line”.

Nuevamente Tim Berners-Lee con la ayuda de Robert Cailliau realizanuna propuesta que es aceptada por el gerente de CERN, esta vez utilizan lasideas de ENQUIRE y crean la World Wide Web, para esto diseñaron el primernavegador llamado ViolaWorldWideWeb y el primer servidor Web llamadohttpd (HyperText Tranfer Protocol daemon).

El año 1991 Tim Berners-Lee anuncia al mundo la creación de la “WorldWide Web”, el primer servidor es nxoc01.cern.ch, lanzado en Noviembre de1990 y posteriormente renombrado como info.cern.ch.

Las tecnologías de transmisión de datos ya comienzan a despegar ypara ese año surgen los nodos T3 con velocidades de transmisión de datosde 44736 Mbps. El tráfico de NSFNET supera el trillón de bytes al mes con10 billones de paquetes de datos al mes.

Para el año 1992 el número dehosts supera el millón. El BancoMundial se vuelve on-line. Se acuñael término “surfeando en internet”, eltérmino es acuñado por Jean ArmourPolly

El gobierno de Estados Unidosde Norte América crea su propioservidor de correo, al año siguientelanza por primera vez su sitio web.

Ese mismo año, surge el primernavegador específicamente para la web, Mosaic tiene una interfaz gráfica tanatractiva y fácil de usar que se transforma en un rotundo éxito y sienta lasbases para todos los navegadores que conocemos hasta el día de hoy. Internet

His

tori

a de

Inte

rnet

Banco Mundial

tiene un crecimiento explosivo del 342% anual.Ese año la NSF (entidad reguladora de Internet) acepta el ingreso de

los 2 consorcios que peleaban el acceso a internet Reuna, y Unired, de esaforma y pese a NSF sólo aceptaba un consorcio por país, Chile logró suingreso con mucho éxito y por partida doble.

En 1994 se celebran los 25 años de ARPANET/Internet. Por primeravez los comercios entran en la web y por fin, es posible pedir pizza on-line(gracias Pizza-Hut). Ya para éste año el tráfico para NSFNET pasa el trillónde bytes por mes. Dado el auge de internet los gobiernos comienzan a tenerpresencia en la red, el primer ciberbanco entra en operación. El primer bannerpublicitario aparece en la página hotwired.com en octubre de ese año.

Ese mismo año, Tim Berners-Lee que se había trasladado desde elCERN hasta el Instituto Tecnológico de Massachussetts funda la W3C (WorldWide Web Consortium) organización sin fines de lucro compuesta por empresasy universidades de todo el mundo la cual es la encargada de estudiar yproponer las tecnologías más adecuadas para el uso de la Web. La Web adiferencia de otras tecnologías no se basa en estándares sino que enrecomendaciones, las cuales no son obligatorias de acatar y son de libreacceso y gratuitas.

Sun lanza Java en Mayo de 1995, ese mismo añoRealAudio crea una tecnología que permite utilizar lared para enviar y recibir una señal de audio casi entiempo real. Ese mismo año el registro de dominios yano es gratuito, exigiendo un pago de 50 dólares anuales.

En 1996, la telefonía internet se vuelve el focode atención de algunas compañías y se realiza unasesión interactiva de chat de 10 minutos. Ese mismoaño comienza la guerra de los navegadores, entreMicrosoft con su producto Internet Explorer y Netscapecon su navegador Navigator.

En 1998 se estima que el rango de revistas enInternet ya supera las 275 y ya existen más de 320 millones de páginas. Secrea ICANN (Internet Corporation for Assigned Numbers) la cual reemplazaráal gobierno en el control y manejo de los números IP y nombres de dominio.

Surgen tecnologías nuevas para la red como XML y el comercioelectrónico.

El año 1999 SETI (Search for Extra Terrestrial Intelligence) lanza

His

tori

a de

Inte

rnet

SETI@home un sistema quepermite procesar datos entra variosusuarios permitiendo que estosusuarios creen una fuerza deprocesamiento más grande que lamayor supercomputadora de laépoca.

Se crea el primer enlacetransatlántico entre dos redesocupando Internet2, éste enlace conecta NORDUNET y SURFNET.

Una nueva tecnología llamada 802.11b, más conocida como Wi-Fi seestandariza.

Para el año 2000 toda la tecnología de la web se ve amenazada por elefecto 2000, para los que aún no nacían o eran demasiado pequeños pararecordar algo, el efecto 2000 se produjo porque mucho del software realizadohasta la época ocupaba sólo 2 dígitos para representar el año (00 hasta el99), por lo que al llegar al año 2000 el año volvería a ser 00 y los efectos deesto en el software sobre todo en el software de los bancos e institucionesfinancieras eran insospechados por lo que se comenzaron a tomar medidascorrectivas para solucionar el problema. Producto de las medidas tomadas,sólo algunos servicios alrededor del mundo se ven afectados.

Ese año un ataque masivo ocupando DoS (Denial of Service) es lanzadode forma coordinada hacia los mayores sitios de la web incluyendo Yahoo,Amazon e Ebay.

La cantidad de páginas web ya sobrepasa el billón de páginas. Esemismo año es hackeada la página de Microsoft. Se crea la tecnología ASP.

La velocidad de transferencia dedatos se hace cada vez másrápida y ya es posible ver elprimer musical distribuido usandoInternet2, llamado “El tecnófobo yel Loco” (The Technophobe & TheMadman). Ese mismo año serealiza la primera transmisión entiempo real de HDTV sincomprimir a través de una redusando Internet2. Comienza a hacerse masivo el uso de P2P para compartirarchivos entre usuarios.

El 2002 Internet2 cada vez se expande más, ahora esta red llamada

His

tori

a de

Inte

rnet

The Technophobe & The Madman

Abilene, ya soporta de forma nativa IPv6, y a ella están unidas más de 200universidades alrededor del mundo, 60 corporaciones y 40 miembros afiliados.Éste año comienza el boom de los blog.

El gobierno Suizo, realiza la primera elección on-line en Anières el7 de Enero. El gusano SQL Slammer causa uno de los ataques más rápidosy de mayor distribución en la red, utiliza un ataque DDos (Distributed Denialof Service), el ataque afecta a 5 de los 13 servidores raíz DNS, esto causaque miles de sistemas queden sin servicio desde cajeros automáticos hastaservicios de emergencia y sistemas de control de tránsito. Ese mismo año enAgosto el virus Sibig.F y luego el gusano Blaster, utilizan Internet parapropagarse y atacar a miles de sistemas alrededor de todo el mundo.

El último segmento de Abilene (Internet2) se actualiza de 2,5Gbps a10Gbps.

El año 2004 se recuerda porque ese año por primera vez existen más servidoresde raíz DNS fuera de Estados Unidos de Norte América. Comienzan a emergercon fuerza las redes sociales y los Web MashUp.Terminan las fases de prueba para Internet2 la cual comienza a cambiar deAbilene a su nueva red. Ese año comienza a emerger la tecnología llamadaCloud Computing.

Estonia ofrece el año 2007 las primeras elecciones de parlamento on-line. Lared Abilene es retirada y las últimas conexiones son cambiadas a nueva redNivel 3.

El 2008 la NASA prueba de forma exitosa la primera comunicación deredes en el espacio profundo utilizando una tecnología llamada DTN (Disruption-Tolerant Networking), utilizada para transmitir imágenes desde y hacia unanave espacial a 20 millones de millas de distancia de la tierra.

Ese mismo año el buscador de Google, alcanza la no despreciable cifrade 1 trillón de páginas indexadas, en 1998 sólo había indexado 26 millonesde páginas y el 2000 había alcanzado el billón de indexaciones.Las direcciones de IPv6 se agregan por primera vez a de los servidores raízDNS.

El 2009 se comienza a hacermás popular el concepto devirtualización y el uso de CloudComputing, las empresas luchanaún con más ahínco contra el usoindiscriminado de las redes socialesy el chat en las empresas. LaICANN abre la opción de registro

His

tori

a de

Inte

rnet

de dominios internacionales. Éste año también la Facultad de Informática dela universidad Politécnica de Madrid pone en marcha el primer observatorioastronómico que se puede manejar a control remoto utilizando una interfazweb.

El 2010 nos trajo algunas sorpresas de la mano del explosivo uso deTweeter(1) en todos los ámbitos (hasta nuestros políticos lo usan). El uso delas redes sociales en caso de catástrofes se volvió más activo que nunca,basta ver los ejemplos de los terremotos de Haití y de Chile.

En cuanto a las nuevas tecnologías de la web, el fin de los números IPde IPv4 hace más urgente aún la adopción de IPV6. Los usuarios activos deInternet alcanzan la no despreciable suma de 1,76 billones de personas. Asiaconcentra el mayor porcentaje de usuarios con más del 40% de todos losusuarios y el acceso a internet usando dispositivos móviles crece de formaacelerada alcanzando casi el 80% en algunos países.

Las nuevas tecnologías tienden a romper fronteras entre elprocesamiento local y el remoto, el masivo uso de “Cloud Computing” y lavirtualización de escritorios como una solución para abaratar costos usandola tecnología web crean una alentadora perspectiva para nuevos servicios ytecnologías.

Hasta ahora has conocido de forma breve la historia de internet desdesus inicios hasta el día de hoy, esta tecnología está presente en casi todasnuestras actividades diarias y supone un gran cúmulo de tecnologías queempezamos a descubrir.

Glosario:

Tweeter :

Es un sitio web de microblogging que permite a sus usuarios enviar y leermicroentradas de texto de una longitud máxima de 140 caracteres denominadostweets. El envío de estos mensajes se puede realizar tanto por el sitio webde Twitter, como vía SMS (short message service) desde un teléfono móvil,desde programas de mensajería instantánea o incluso desde cualquieraplicación de terceros, como por ejemplo Turpial, Twitterrific, Tweetie,Facebook, Twinkle, Tweetboard, TweetDeck, Xbox 360, Nokia, Pidgin, ChromedBird, Echofon, Blackberry, Hootsuite, Twitterfeed, UberSocial, Tuenti o SonyEricsson.H

isto

ria

de In

tern

et

Como funciona una red

La forma en que una red funciona está asociada a una serie de variablescomo por ejemplo el medio que se ocup a para la transmisión de los datos,la forma en que los datos se transmiten, los niveles de seguridad y una seriede otras características que definen la forma en que la red funciona.

Analicemos de forma general como trabaja una red. Un computador opunto de la red desea transmitir datos a otro comput ador, para lograrlo losdos deben de conocer mutuamente cuál es su dirección. Una vez esto seconoce, el emisor utiliza un canal de comunicación o medio p ara enviar losdatos. El receptor debe de poder recibir en su tot alidad los datos y por lotanto comprobar qué “lo recibido es lo enviado”.

Como lo anterior es muy difícil de lograr dadas las característicaspropias de la red (const ante crecimiento, fallos del medio o del hardware,ruido, etc.), se comenzaron a realizar una serie de mejoras en las tecnologíasque dan soporte a la transmisión de datos en una red de comput adores.

Arquitectura OSI/ISO

El modelo de arquitectura que define OSI (Open System Interconnection) esun modelo desarrollado por la ISO (International Standar Organization) quedefine una serie de capas o niveles. Cada uno de estos niveles define unaserie de protocolos que permitieron a los distintos fabricantes y creadores detecnología el tener una guía o patrón a seguir para desarrollar sus productosy que estos fueran fáciles de conectar unos con otros.Las capas que define el modelo OSI son 7:

1. Capa física.

2. Capa de enlace de datos.

3. Capa de red.

4. Capa de transporte.

5. Capa de sesión.

6. Capa de presentación.

7. Capa de aplicación.Func

iona

mie

nto

de la

red

Veamoslas una a una.

Capa física.

Se encarga de transformar los datos existentes en el computador que están comouna secuencia de 0 y 1 de tal forma que puedan ser transmitidos por un medio y queel receptor pueda recuperar la secuencia de bits originales. Adicionalmente la capafísica permite definir la capacidad del canal o ancho de banda. Otra característica dela capa física es definir el medio de transmisión, las características de los materiales,manejar las señales eléctricas, garantizar la conexión y definir las características paraestablecer, mantener y liberear el enlace físico.

Capa de enlace de datos.

Esta capa se encarga del direccionamiento físico, de la forma en que se entra almedio, la detección de errores, la forma en que se crean los enlaces entre los equiposy la red. Recibe peticiones de la capa de red y utiliza los servicios de la capa física.

Capa de red.

El objetivo de esta capa es asegurar que los datos lleguen desde un equipo a otroaunque los dos no se encuentren conectados directamente. Para esto ocupa tecnologíascomo asignar direcciones de redes únicas, encaminar paquetes, utilizar un control decongestión y control de errores.

Capa de transporte.

Capa encargada de efectuar el transporte de los datos desde el origen al destino, deforma independiente del tipo de red física que se está usando.

Capa de sesión.

Esta capa es la encargada de mantener y controlar el enlace que se realizó entre doscomputadores para la transmisión de datos. La función de esta capa es la de mantenerla sesión entre los dos computadores de principio a fin mientras se realiza la transmisiónde datos y reanudarla si es que se interrumpe.Fu

ncio

nam

ient

o de

la r

ed

Capa de presentación.

Esta capa actúa a nivel del contenido de los datos más que a nivel de la transmisiónpermitiendo que diferentes equipos que tratan o procesan los datos de forma distinta,puedan entenderse y enviar y recibir datos sin problemas. Actúa como una especiede traductor, pudiendo comprimir y encriptar datos.

Capa de aplicación.

Es la capa que ocupa los servicios de las otras capas y define los protocolosque se utilizan para el intercambio de datos, como por ejemplo HTTP, FTP,POP SMTP, etc.

Funcionamiento de la red

1.- Representa los distintos tipos de capasque forman una arquitectura OSI/ISO.

Act

ivid

ades

ivel

es d

e pe

nsam

ient

o:C

OM

PR

EN

SIÓ

N:

Rep

rese

ntar

Aplicación

Presentación

Sesión

Transporte

Red

Enlace de Datos

Física

Proceso de red a aplicaciones

Comunicación entre hosts

Conexiones de extremo a extremo

Representación de datos

Direccionamiento y mejor ruta

Acceso a los medios

Transmisión binaria

Protocolo TCP/IP

Es en realidad un conjunto deprotocolos, está formado por dospartes TCP(Transfer ControlProtocol) Protocolo de Control deTransferencia y por IP(InternetProtocol) Protocolo de Internet.

Como es un conjunto de protocolosque definen o dan las bases delfuncionamiento de internet amenudo se los llama una “familia” de protocolos. Esta familia está compuestapor más de 100 protocolos diferentes entre los que se encuentran HTTP, POP,SMTP, TELNET y varios protocolos más. Fue un protocolo creado por ARPAy cumple ciertos criterios como:

• Dividir mensajes en paquetes

• Usar un sistema de direcciones para ubicar al origen y al destino en una red

• Enrutar los datos en una red

• Detectar errores en la transmisión.

Esta familia de protocolos se comporta muy bien cuando existe una grancantidad de tramas de datos que enrutar.

Direcciones de Internet

Una dirección de internet no es más que un conjunto de letras, números ysímbolos que permiten tu identificación de forma única en internet. Lasdirecciones de internet permiten identificar a los equipos dentro de la red yenrutar los datos desde y hacia ellos. Todos los equipos que se conectan a la reddeben tener una dirección de internet (dirección IP) única. Esta dirección IP es unnúmero binario de 32 bits (4 grupos de 8 bits) que identifica a un equipo de maneralógica y jerárquica.U

RI,

UR

L, U

RN

Los seres humanos estamos más acostumbrados a trabajar y recordar palabras quenúmeros, por lo tanto se crean los nombres de dominio que corresponden a un nombreque enmascara a una dirección IP, para resolver el par ordenado de nombre dedominio, número IP, se crean los servidores DNS que se encargan de transformar elnombre en la dirección IP y enrutar la petición al destino que corresponde.

Puertos

Un puerto es la definición genérica queposee cualquier canal de comunicaciónen un computador para el envío yrecepción de datos. Existen dos tipos depuertos, lógicos y físicos. Los puertosfísicos permiten la conexión entredispositivos como monitores, impresoras,cámaras digitales, etc. Los puertoslógicos son por el contrario una zona olocalización de memoria que se asociacon un puerto físico y que se ocupa como un almacén temporal de datos. De estaforma múltiples aplicaciones pueden ocupar un único puerto físico, ya que cada unaposee distintos almacenes de memoria temporal.

Existen algunos puertos lógicos que se asignan por acuerdo o convenio internacional,la IANA (Internet Assigned Numbers Authority) determina las asignaciones de todoslos puertos comprendidos entre el 0 y el 1023. Por ejemplo el puerto 21 se asocia conaplicaciones que ocupan FTP, el puerto 80 con HTTP, el puerto 25 con SMTP y el 23con TELNET. Los números de puerto desde el 1024 hasta el 65535 se pueden registraren consenso con IANA. Estos puertos lógicos son manejados por software que seencarga de realizar la gestión entre la memoria y el hardware.

URI, URL, URN

Esta siglas definen 3 formas distintas de poder identificar un recurso en una red,veámoslas en detalle.

Una URN (Uniform Resource Name) o nombre de recurso uniforme, es decir es laforma que se puede nombrar e identificar un recurso en una red, esta forma no definela ubicación del elemento, sólo lo nombra.P

uert

os /

UR

I, U

RL,

UR

N

Por otro lado una URL (Uniform ResourceLocator) o Localizador uniforme derecursos, es una secuencia de caracteresque permiten nombrar un recurso en unared y además localizarlos. Como esuniforme, está compuesta por algunaspartes que son comunes y estas son: elnombre del computador, la ruta donde seencuentra el recurso y el nombre delrecurso y el protocolo necesario para recuperar el recurso. Adicionalmente se puedenagregar cosas como el nombre de usuario y la contraseña o el puerto de acceso, porejemplo:

http://www.codeproject.com/KB/architecture/usecasepoints.aspx

Una URI (Uniform Resource Identifier) o identificador uniforme de recursos, extiendeaún más allá la URL descomponiendo la estructura en las siguientes partes:

• Esquema que permite la identificación del recurso, el cual a veces tambiénincluye el protocolo (HTTP, FTP, etc.)

• El servidor en el cual se ubica el recurso.

• La ruta en el servidor en el cual se ubica el recurso.

• Una consulta con información no jerárquica asociada a un par ordenado deatributo y valor el cual indica su inicio mediante el carácter “?”.

• Un fragmento que permite identificar parte de un recurso principal o una vistadel mismo, el comienzo del fragmento está definido por el carácter “#”.

Algunos ejemplos de esto son:

http://www.inacap.cl/tportalvp/?t=39

http://www.microsoft.com/web/gallery/categories.aspx?category=eCommerce

http://es.wikipedia.org/wiki/Protocolo_de_Internet#EnrutamientoPro

toco

los

de C

omun

icac

ión

Tecn

olog

ías

/ Seg

urid

adProtocolos de comunicación.

Un protocolo es un conjunto de reglasutilizadas por los computadores paracomunicarse entre sí utilizando una red.Los protocolos son implementadosmediante una combinación de hardwarey software.

Las funciones de los protocolos sonbásicamente las siguientes: establecerel canal de comunicación, establecer la transmisión, realizar la transmisión, verificarla transmisión, finalizar la transmisión y cortar el canal. Adicionalmente el protocolodebe encargarse de gestionar los errores en la transmisión y de volver a conectar losequipos en caso de pérdida de la conexión.

Cada uno de los protocolos existentes está pensado para realizar una tarea específica,es por eso que existen tantos y sus funciones son tan diversas, algunos ejemplos sonlos siguientes:

Ftp (file transfer protocol) permite la transmisión de archivos entre computadoras.

Http (hypertext transfer protocol) permite la transmisión de datos que utilizan el formatode hipertexto para crear los archivos.

Pop3 (post office protocolo) permite la administración de correo electrónico

Seguridad yencriptación.

La seguridad de los datos en unared utilizando tecnologías deinternet es un tema bastantecomplicado sobre todo pensandoen la cantidad de datos y en laimportancia que estos datospuedan tener para un proceso enespecífico.

La seguridad de los datos se puede asegurar de cierta forma utilizando la encriptaciónde los datos. Los datos que viajan por la red son susceptibles de capturar y por lotanto de interpretar por personas inescrupulosas. Esto se puede hacer debido a quelos protocolos de internet desde su inicio no fueron pensados para esconder lainformación sino que todo lo contrario, se pensaron para compartirla. Una forma deproteger los datos es encriptando los datos que van a ser enviados para asegurar dealguna forma que si estos son interceptados, no sea claro su significado.

Para encriptar los datos se ocupa un algoritmo que permite el transformar los datosoriginales en otros datos cuyo significado sea distinto o simplemente no se entiendan.

Existen básicamente dos tipos de algoritmos de encriptación, los simétricos y losasimétricos. En internet se ocupa básicamente algoritmos asimétricos basados en loque se denomina una clave pública. La clave pública es conocida por todos y es laque utilizan los emisores para encriptar el mensaje. Asociada a esta clave públicaexiste una clave que es conocida exclusivamente por el destinatario y que permiteque sólo esta persona pueda descifrar los datos encriptados.

Existen varios niveles de encriptación que se definen como pares ordenados enfunción de la cantidad de bits que posee la clave privada y la clave pública por ejemploexisten versiones de 40-512 bits, 128-1024, etc.

Se supone que mientras más bits se ocupan para la encriptación es más difícil dedesencriptar en el caso de que se intercepten los paquetes, pues la cantidad dealternativas que debe probar el software que trate de “adivinar” la clave se expresaen 2^40 o 2^128, ahora si bien esto aumenta la seguridad no es infalible, ya se hademostrado que ocupando un par de procesadores de doble núcleo y el softwareadecuado, la clave se puede obtener un par de días e incluso horas.

Firma Digital.

La firma digital funciona de la mismaforma que una llave pública. Estafirma permite autentificar que undocumento o mensaje digital fuecreado por el remitente y que no fuealterado durante la transmisión. Amenudo los conceptos de firma digitaly de firma electrónica se confunden,estos son conceptos totalmente

Firm

a D

igita

l

distintos. Mientras la firma digital involucra métodos criptográficos, la firma electrónicaes un concepto más amplio que no necesariamente involucra criptografía.

La firma digital se basa en el uso de un función hash que es un algoritmo matemáticoque permite utilizar una clave para crear un número que identifica de forma única elcontenido y el autor. Éste algoritmo es en un solo sentido es decir que teniendo elnúmero no se puede averiguar el contenido, pero al tener la clave y aplicarla alcontenido, el resultado de la aplicación del algoritmo debería ser el mismo númerocreado anteriormente.

La firma digital además debe ser comprobada en cuanto a su vigencia, es decir queesta puede caducar.

Los certificados de firma digital los asignan instituciones correctamente acreditadaspor el gobierno y que prestan el servicio de autenticar esta firma digital contra susbases de datos.

En chile hay algunas empresas que se dedican a emitir certificados de firma digitalcomo por ejemplo e-certchile o certisur.

Tecnologías asociadas a la web.

Como la web contiene una amplia gama de tecnologías que le dan soporte (hardware,software, diseño, etc.) nos vamos a concentrar específicamente en las tecnologíasque tienen que ver con la web.

Una de los primeros conceptos quevamos a aprender es el concepto de la Web2.0. Éste concepto acuñado a finales de losaños 90 y que resurge con fuerza el año 2002en varias publicaciones realizadas de formasimultánea, hace referencia a la utilización detecnología que ya existe pero que se aplica deforma distinta. Los sitios creados con Web 2.0se caracterizan porque trabajan sobre un modelode “arquitectura de participación”, en la cual elusuario aporta datos al sistema, pero ademástiene control sobre estos y eso permite que sepueda agregar valor a la aplicación.Te

cnol

ogía

s w

eb

Adicionalmente el concepto deWeb 2.0 se centra en la experienciadel usuario al utilizar las aplicacionesweb. Las nuevas páginas web estánbasadas en la participación activarespecto al contenido, con la adiciónde interfaces lo más parecidas a lasaplicaciones de escritorio y con el usode multimedios, de forma tal de poderconquistar a la audiencia.

La tecnología utilizada en esta nueva forma de enfrentar la red, es el uso demucha tecnología del lado del cliente como AJAX (Asynchronous JavaScript AndXML), frameworks o conjuntos de librerías de JavaScript pre programadas comoYahoo! UI, JQuery, Dojo Toolkit, MooTools y Google Ajax API. Además del uso deframeworks multimedia creados por Adobe como Adobe Flash y Adobe Flex o latecnología desarrollada por Microsoft conocida como SilverLight, el cual tiene su símilen el proyecto Moonlight una implementación open source de Silverlight para GNU/Linuxy Unix.

Por el lado del servidor se sigue ocupando mucha de la tecnología que ya seusaba en la llamada Web 1.0 es decir PHP, Ruby, ColdFusion, Perl, Python, pero enéste caso es usada principalmente para leer y guardar datos en bases de datos.

Un concepto que aparece de la mano de la Web 2.0 es el concepto de RIA(Rich Internet Application), es decir aplicaciones que pueden funcionar indistintamentecomo una aplicación de escritorio o como una aplicación web. Otro concepto es elde SOA (Service Oriented Architecture), es decir que las aplicaciones pueden exponersu funcionalidad, de tal forma que otras aplicaciones puedan ocuparlas, permitiendocrear aplicaciones más ricas.

El concepto de Web Social, que también surge de la mano de la Web 2.0 seasocia a la posibilidad real que tienen los usuarios de interactuar con el contenido yde transformarse en una parte integral de la generación de contenidos.

La web 3.0 es un concepto un poco más complejo y apunta a una modificaciónde las tecnologías existentes. Si bien las tecnologías ya están disponibles, la aplicaciónpráctica de éstas se ve estancada por una serie de fenómenos.

Primero la Web 3.0 pretende la transformación de la red en una base de datos,es decir que el contenido quede disponible para un conjunto de aplicaciones que no

Tecn

olog

ías

web

Ser

vido

res

de D

omin

ionecesariamente sean navegadores. Las tecnologías de la Web 3.0 apuntan a lautilización de datos semánticos y el uso de inteligencia artificial para realizar procesosdenominados como inteligencia semántica.

Para realizar éste proceso, se requiere de la utilización de un lenguaje degeneración de contenido semántico que esté estandarizado, para esto la W3C realizóuna recomendación para el uso de RDF y OWL. Si bien Tim Berners-Lee en suconcepción original ya había ideado la web como un conjunto de informaciónsemánticamente indexable, su propuesta no pudo ser llevada a cabo fundamentalmentepor problemas tecnológicos.

La aparición de RDF, OWL y XML, permiten que los dispositivos que no esténbasados en un navegador, puedan consultar los documentos y extraer informaciónde ellos. Esto abre un mundo de nuevas posibilidades a niveles insospechados endónde la información almacenada y la información respecto a la información serándecisivas en la forma en que los sistemas se comportan. El surgimiento de SPARQLpermite transformar a la web en una gran base de datos con la posibilidad de buscarinformación específica y más aún, con la posibilidad de solicitar a robots basados enredes neuronales de inteligencia artificial que realicen los procesos de búsquedaindexación y filtro de los datos que contendrán estos nuevos archivos web.

Otra gran innovación que traerá pronto la Web 3.0 es la inclusión de visión 3D.Esta tecnología liderada por la Web3D Consortium, implica la transformación de laweb en una serie de espacios 3D donde los usuarios podrán colaborar en un entornocada vez más cercano a la realidad física. Esta tecnología utiliza en estos momentosel lenguaje VRML (Virtual Reality Modeling Language) y su sucesor el X3D (eXtensible3D)

Servidores de Dominio.

Vamos a analizar ahora de forma un poco másprecisa cómo funcionan los servidores de dominioy cuál es la función que prestan dentro del mundodel internet.

Los servidores DNS (Domain Name Server)permiten traducir un nombre de dominio en unnumero IP y viceversa. Esto permite que laspersonas podamos recordar de mejor forma elnombre de un servidor y así no tener que lidiarcon el número IP.

De esta forma en un nombre de dominio la jerarquía se lee de derecha a izquierda.Por ejemplo en el dominio www.inacap.cl la jerarquía mayor o dominio más alto es“cl”.

Cada componente del dominio tiene un servidor primario y varios secundarios de talforma que toso ellos tengan la misma autoridad para responder frente a una petición. Sólo el servidor primario tiene derecho a realizar modificaciones en la tabla, lossecundarios sólo pueden replicar la tabla de nombres/ip.Las tablas de asignación denombre/ip se actualizan constantemente y tardan alrededor de 24 horas en estardisponibles en todo el mundo. Por lo tanto cuando inscribes un nombre de dominio,la actualización a los servidores DNS del mundo demora al menos un día.

Supongamos que necesitas encontrar un recurso en un servidor, al utilizar un nombrede dominio para alcanzar el recurso, el servidor DNS trata de transformar el nombredel servidor en una dirección IP, si no lo consigue, envía la petición al servidor DNSde nivel superior y a los del mismo nivel, cuando la petición vuelve al origen sin serrespondida, significa que éste nombre no se encuentra asociado a ningún numeroIP, si te ha sucedido te podrás dar cuenta que el tiempo que tardan los servidores enresponder es muy breve.

Los dominios NIC e InterNIC.

Para poder registrar un nombre de dominio en el árbol “.cl” es necesario que lainscripción la hagas en la unidad correspondiente que es el Departamento de Cienciasde la Computación perteneciente a la Facultad de Ciencias Físicas y Matemáticas dela Universidad de Chile. El trámite de registro consiste básicamente en determinarsi el nombre de tu dominio está disponible y correctamente compuesto. Para realizaréste primer paso, debes dirigirte a la página http://www.nic.cl e ingresar a la secciónde inscripción de dominios, tal como lo muestra la imagen

NIC

/ In

terN

IC

NIC

/ In

terN

ICUna vez que el sistema te avisa que tu dominio está disponible, debes pasarpor 9 pasos que te permitirán registrar el dominio.

InterNIC, es la abreviatura de Internet Network Information Center, el cualfue el primer organismo encargado de gestionar los nombres de dominio ylas direcciones IP hasta el año 1998 año en el que esta actividad fue encargadaa la ICANN (Internet Corporation for Assigned Names and Numbers). LaICANN se encarga de gestionar los nombres DNS y el espacio de direccionespara la resolución de nombres de dominio que no pertenecen a un árbol ojerarquía mayor asociado específicamente a un país.

Por ejemplo los dominios “.com”, “.net”, “.jobs”, “.travel” y “.xxx” son dominiosmanejados por ICANN. Para transparentar el proceso de registro de losnombres de estos dominios se realiza una licitación pública en la cual diferentesempresas pueden vender, comprar y registrar dominios, pues estos dominiosse cuentan como un activo para las empresas.

Usa

bilid

adTérminos importantespara construir sitiosWeb.

Usabilidad.

La Usabilidad es la medida de lacalidad de la experiencia que tieneun usuario cuando interactúa conun producto o sistema. Esto semide a través del estudio de larelación que se produce entre lasherramientas (entendidas en unsitio web cómo el conjunto integrado por el sistema de navegación, lasfuncionalidades y los contenidos ofrecidos) y quienes las utilizan, paradeterminar la eficiencia en el uso de los diferentes elementos ofrecidos enlas pantallas y la efectividad en el cumplimiento de las tareas que se puedenllevar a cabo a través de ellas. El experto en el tema, Jakob Nielsen desarrollóla siguiente pauta para mejorar la usabilidad:

• Visibilidad del estado del sistema: el sistema siempre deberíamantener informados a los usuarios de lo que está ocurriendo, a través deretroalimentación apropiada dentro de un tiempo razonable.

• Relación entre el sistema y el mundo real: el sistema deberíahablar el lenguaje de los usuarios mediante palabras, frases y conceptos quesean familiares, más que con términos relacionados con el sistema. Seguirlas convenciones del mundo real, haciendo que la información aparezca enun orden natural y lógico.

• Control y libertad del usuario: hay ocasiones en que los usuarioselegirán las funciones del sistema por error y necesitarán una “salida deemergencia” claramente marcada para dejar el estado no deseado al queaccedieron, sin tener que pasar por una serie de pasos. Se deben apoyarlas funciones de deshacer y rehacer.

• Consistencia y estándares: los usuarios no deberían cuestionarsesi acciones, situaciones o palabras diferentes significan en realidad la mismacosa; siga las convenciones establecidas.

• Prevención de errores: mucho mejor que un buen diseño de mensajes

de error es realizar un diseño cuidadoso que prevenga la ocurrencia deproblemas.

• Reconocimiento antes que recuerdo: se deben hacer visibles losobjetos, acciones y opciones, El usuario no tendría que recordar la informaciónque se le da en una parte del proceso, para seguir adelante. Las instruccionespara el uso del sistema deben estar a la vista o ser fácilmente recuperablescuando sea necesario.

• Flexibilidad y eficiencia de uso: La presencia de aceleradores,que no son vistos por los usuarios novatos, puede ofrecer una interacciónmás rápida a los usuarios expertos que la que el sistema puede proveer alos usuarios de todo tipo. Se debe permitir que los usuarios adapte el sistemapara usos frecuentes.

• Estética y diseño minimalista: los diálogos no deben contenerinformación que es irrelevante o poco usada. Cada unidad extra de informaciónen un diálogo, compite con las unidades de información relevante y disminuyesu visibilidad relativa.

• Ayudar a los usuarios a reconocer, diagnosticar y recuperarsede errores: Los mensajes de error se deben entregar en un lenguaje claroy simple, indicando en forma precisa el problema y sugerir una soluciónconstructiva al mismo.

• Ayuda y documentación: incluso en los casos en que el sistemapueda ser usado sin documentación, podría ser necesario ofrecer ayuda ydocumentación. Dicha información debería ser fácil de buscar, estar enfocadaen las tareas del usuario, con una lista concreta de pasos a desarrollar y noser demasiado extensa.

Accesibilidad:

La accesibilidad Web significa quepersonas con algún tipo dediscapacidad van a poder haceruso de la web. Ya que el software tiene un papel importante en laaccesibilidad de la web, esimportante que ayude a losdesarrolladores a generar yevaluar sitios web accesibles para

Acc

esib

ilida

d

que las personas con discapacidad puedan utilizarlos. La Web AccessibilityInitiative (WAI) entrega una serie de lineamientos que ayudan en éste sentido,cómo por ejemplo:

• Imágenes y animaciones: Use el atributo alt para describir la funciónde cada elemento visual.

• Mapas de imagen: Use el elemento map y texto para las zonas activas.

• Multimedia: Proporcione subtítulos y transcripción del sonido, ydescripción del video.

• Enlaces de hipertexto: Use texto que tenga sentido leído fuera decontexto. Por ejemplo, evite "pincha aquí".

• Organización de las páginas: Use encabezados, listas y estructuraconsistente. Use CSS para la maquetación donde sea posible.

• Figuras y diagramas: Descríbalos brevemente en la página o use elatributo longdesc.

• Scripts, applets y plug-ins: Ofrezca contenido alternativo si las funcionesnuevas no son accesibles.

• Marcos: Use el elemento noframes y títulos con sentido.

• Tablas: Facilite la lectura línea a línea. Resuma.

• Revise su trabajo: Verifique. Use las herramientas, puntos decomprobación y pautas de http://www.w3.org/TR/WCAG.

Internacionalización

La internacionalización es el diseñoy desarrollo de un producto, unaaplicación o el contenido de undocumento de modo tal que permitauna fácil localización con destino aaudiencias de diferentes culturas,regiones o idiomas.La internacionalización generalmenteimplica:In

tern

acio

naliz

ació

n

• Un modo de diseño y desarrollo que elimine obstáculos a la localizacióno la distribución internacional. Esto incluye cuestiones tales como (entre otras)usar Unicode o asegurar, allí donde corresponda, un correcto tratamiento delas codificaciones de caracteres anticuadas; controlar la concatenación decadenas; o evitar que la programación dependa de valores de cadenaspertenecientes a la interfaz de usuario.

• Habilitar características que tal vez no sean usadas hasta el momentode la localización. Por ejemplo, añadir en la DTD etiquetas para habilitar eltexto bidireccional o la identificación de idiomas. O hacer la CSS compatiblecon texto vertical u otras características tipográficas ajenas al alfabeto latino.

• Preparar el código para hacer frente a las preferencias locales,regionales, lingüísticas o culturales.

Por lo general, esto supone incorporar características y datos de localizaciónpredefinidos a partir de bibliotecas existentes o de las preferencias del usuario.Algunos ejemplos son: formatos de fecha y hora, calendarios locales, formatosy sistemas de números, ordenamiento y presentación de listas, uso de nombrespersonales y formas de tratamiento, etc.• Separar del código o contenido fuente los elementos localizables, demodo que puedan cargarse o seleccionarse alternativas localizadas segúndeterminen las preferencias internacionales del usuario.• Obsérvese que esta lista no incluye necesariamente la localización delcontenido, la aplicación o el producto hacia otro idioma; se trata más bien deprácticas de diseño y desarrollo que facilitan esa migración en el futuro, peroque también pueden tener una utilidad considerable aunque la localizaciónjamás se produzca.

Política de Patentes:

Se trata de una serie de directrices o normas a través de las cuales el W3Cestablece la forma de gestionar laspatentes en el proceso de creación ydesarrollo de estándares Web con elobjetivo de hacer posible la difusión,adopción y continuo desarrollo deestándares Web sin los problemas quepuedan aparecer en relación aderechos de autor. Es decir, el objetivoprincipal de esta política es asegurarque las recomendaciones del W3C,desarrolladas bajo esta política, sean

Pol

ítica

de

Pat

ente

s

implementadas libres de derechos de autor.

La Política de Patentes del W3C promueve la implementación a granescala de las Recomendaciones del W3C, estableciendo claramente losrequisitos de Licencia libre de Derechos de autor, asegurando la disponibilidadde las licencias de forma universal, y haciendo públicas las restricciones ylimitaciones.

La Política de Patentes resuelve excepciones a través de su denominadoPAG (Grupo Asesor de Patentes). Se trata de un Grupo de Trabajo constituidocon el objetivo de resolver los conflictos que puedan surgir mediante el desarrollo de una recomendación. Aconseja al W3C sobre los mecanismos para hacer frente a los problemas ocasionados por patentes en la creación y desarrollo de estándares Web abiertos.

Tecnología Multimedia:

Las tecnologías multimedia crean una web más atractiva gracias a laintroducción de imágenes escalables, sonido de alta calidad, vídeo, efectos3D y animación, que aportan al usuario una experiencia más rica en lanavegación por la Web. Entre las tecnologías a destacar están:La introducción de todos estos elementos de forma compatible se convierteen una labor complicada para desarrolladores. Por éste motivo, lasespecificaciones desarrolladas por el W3C trabajan en la creación de lenguajesen los que esta multimedia enriquecida sea compatible con los diversosdispositivos y navegadores existentes en el mercado.Entre las tecnologías a destacar están:

Tecn

olog

ía M

ultim

edia

• SVG (Gráficos Vectoriales Escalables), que es un vocabulario XML dedescripción de gráficos de dos dimensiones y de aplicaciones gráficas. SVGse utiliza en diferentes áreas incluyendo gráficos Web, animación, interfaz deusuario, intercambio de gráficos, aplicaciones móviles y diseño de alta calidad.SVG está basado en otros estándares de gran uso cómo JPEG y PNG.

• PNG (Gráficos de Red Portátiles) para formato de imágenes,

• DOM para interactividad y scripting,

• SMIL (Lenguaje de Integración de Multimedia Sincronizada) para animación.

• CSS (Hojas de Estilo en Cascada) para dar estilo.

Directorios Virtuales:

Un directorio virtual es un nombre sencillo o alias de un directorio físico deldisco duro del servidor o del directorio principal de otro equipo que no estáubicado en el directorio principal. Puesto que el alias suele ser más cortoque la ruta de acceso del directorio físico, a los usuarios les resulta máscómodo escribirlo. El uso de alias es también seguro, ya que los usuarios noconocen el lugar del servidor donde están ubicados físicamente los archivosy, por tanto, no pueden utilizar esa información para modificarla. Además,con los alias es más fácil mover directorios en el sitio. En lugar de cambiarla dirección URL del directorio, puede cambiar la asignación entre el alias yla ubicación física del directorio.

Errores Personalizados:

Debido a que algunas veces loserrores devueltos por el servidorweb dan demasiada informaciónacerca de la aplicación que losproduce y que esa informaciónpuede incluso ser usada para iniciarun ataque contra el servidor, losservidores web ofrecen laposibilidad de que los webmasterspuedan configurar las respuestasque muestra el servidor cuando se

Dir

ecto

rios

Vir

tual

es /

Err

ores

Per

sona

lizad

os

producen algunos errores o problemas. Así, se puede usar para mostrarerrores algo más “amigables” o adaptados a un propósito o aplicación concretao que puedan orientar al usuario por vías alternativas de solución.Por ejemplo, si un script termina de forma anormal y se produce una respuesta"500 Server Error", el servidor podrá ser configurado para responder usandouna de las siguientes alternativas:

1. Desplegar un texto diferente, en lugar de los mensajes de la NCSA.

2. Redireccionar la petición a una URL local.

3. Redireccionar la petición a una URL externa.

Redireccionar a otra URL puede resultar de utilidad, pero solo si con ello sepuede también pasar alguna información que pueda explicar el error o problemay/o registrarlo en el log correspondiente más claramente.

Err

ores

Per

sona

lizad

os

Bib

liogr

afía

de

imág

enes

Bibliografía de imágenes:

http://www.7sur7.be/7s7/fr/1505/Monde/article/detail/532147/2008/12/05/Le-plus-grand-accelerateur-de-particules-redemarrera-en-2009.dhtml

http://www.ayushkumar.com/tim-berners-lee-father-of-html

http://www.universidades.com/universidad-foto.asp?contenido=200354&foto=5

http://www.puntoclick.cl/banco-mundial-llega-a-acuerdo-de-cooperacion-con-chile-para-eliminar-pobreza-extrema/

http://www.milbits.com/888/tutorial-java-quince.html

http://aesthetic-machinery.com/technophobe.html

http://alianzacom.com/comunicacion_estrategica_online/2010/09/03/los-mitos-y-realidades-del-cloud-computing/

3D: Fco. Rocco