Ver Mensaje Individual
Antiguo 10/12/2004, 18:00   #5
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
4 Servicios de Internet y otros conceptos
4.1 Espejos

§1 Sinopsis
Debido a la popularidad de algunos "sitios" de Internet (de la Web, sobre todo), hicieron su aparición los espejos (Mirror Sites). Son áreas de un computador que replican, "mirror", en el argot de la Web [1], el contenido y estructura exacta de otro ordenador, de forma que si se tienen problemas de conexión con uno, puede acudirse a alguno de estor espejos para encontrar exactamente lo mismo. Por supuesto que estos "espejos" son actualizados a intervalos regulares desde el sitio original.


Uno de los mas conocidos y utilizados es el famoso buscador AltaVista, que contiene "espejos" en diversas partes del mundo, concretamente uno de ellos en España, de contenidos en Español dirigido a nuestro país y a todo el mundo hispanohablante. El sitio original es: altavista.com, el espejo español es: altavista.magallanes.net.
Es frecuente también, que empresas de mucho éxito, con gran afluencia de público, por ejemplo algunas compañías de programas Shareware y Freeware, que funcionan como auténticos mega-almacenes de tales programas; a la hora de intentar "descargar" el producto elegido, nos ofrezcan varias alternativas, indicando incluso la situación geográfica de cada una de ellas, lo que nos permite elegir la que nos parezca (o comprobemos) que tiene una conexión más rápida. La traducción práctica se reduce a apuntar y "cliquear" en un sitio u otro de la página en la que se nos anuncian/ofrecen las opciones.



[1] El término también es empleado para designar una técnica utilizada en sistemas de muy alta seguridad en los que la información se escribe simultáneamente en dos discos.

4 Servicios de Internet y otros conceptos
4.2 Tecnologías Pull/Push

Nota: El original de este epígrafe está escrito en 1998; representa el estado de la cuestión en aquellos momentos. Esta y otras tendencias de la Web, van y vienen como las modas; actualmente (2002), la tecnologías demasiado invasivas parece que están perdiendo actualidad (exceptuando las publicitarias). Por su parte Microsoft ha abandonado el asunto de los canales en sus últimas versiones del navegador, sin embargo lo mantenemos aquí porque las bases permanecen; representan aspectos de la Web que seguirán siendo importantes, y como todas las cuestiones relativas a la moda, puede ser que vuelvan a la actualidad.

§1 Sinopsis
Estas palabras, que empiezan a utilizarse mucho al hablar de la Web y sus tecnologías asociadas, se refieren a lo que indica exactamente su traducción inglesa: Tirar/Empujar, en referencia a dos paradigmas distintos de utilización de la Red.
En cuanto al primero, la tecnología Pull (tirar) es la que se utilizamos cuando con nuestro navegador visitamos cualquier sitio Web. El servidor envía información bajo demanda, es el cliente (nosotros) el que inicia la acción. En este sentido puede decirse que la Web es un medio esencialmente "Pull", decidimos que queremos, el navegador lo encuentra y en cierta forma puede decirse que "tira" del contenido que recibe.
La tecnología Push representa un intento de invertir dicho estado de cosas. Aceptando de antemano que incluso la mas intrusiva de estas tendencias Push será el resultado de un acto deliberado del cliente, el momento y la forma pueden ser totalmente controladas por el sistema. Como puede verse, se trata del paradigma ideal para los publicistas, la información viene a nosotros sin necesidad de hacer nada deliberado para recibirla.

§2 Noticias
Dentro de esta filosofía de uso existen variedad de servicios y diversos grados. Los menos invasivos podemos personalizarlos en algunos servicios de Noticias que nos envían e-mails con la información correspondiente (por ejemplo financiera) a la que estamos suscritos.

§3 Subscripciones
Un segundo nivel es el establecido por las "subscripciones". MS. Internet Explorer 4 ya proporcionaba esta característica, que consiste en que el explorador busca en los sitios prefijados la aparición de nuevos contenidos de acuerdo con el programa que se especifique. La acción respuesta puede limitarse a la mera notificación de que hay nuevo contenido o descargarlo automáticamente en el disco duro (por ejemplo, por la noche o cuando el equipo esté inactivo) de forma que se puede navegar por dichas páginas sin estar conectado (off-line). Esto recibe el nombre de "suscripción" a un sitio Web y permite obtener automáticamente información actualizada del sitio de acuerdo con una programación (diarias, semanales o mensuales), sin tener que visitar el sitio ni actualizar el contenido manualmente. En el capítulo 7 se detalla la operatoria a seguir en este caso ( 7.4).
En este orden de ideas, existen servicios en los que es posible apuntar la dirección de una página y nos notifica si existen variaciones, por ejemplo el que citamos a continuación.

NetMind [url]http://www.netmind.com[/url]
Se trata de un servicio (gratuito por el momento) al que se le indica una o varias paginas Web a "vigilar"; NetMind le avisa por correo cuando estas paginas se actualicen, cambien de sitio, o desaparezcan. Incluso puede recibir la pagina indicada por correo. Puede ser una buena opción si nos interesan las actualizaciones o cambios en determinados sitios y presenta unas innegables ventajas sobre las subscripciones del MS. I.E.
Nota: Despues de algunos avatares y cambios de denominación, en Mayo de 2002 este servicio había desaparecido, en esta fecha solo era posible su excavación arqueológica. Su último propietario era Pumatech.inc.


§4 Canales
Un paso mas sofisticado del proceso lo representan los "canales". En este caso la subscripción se realiza a un sitio Web cuyo servidor está preparado al efecto para soportar esta tecnología. Los canales son sitios Web que se actualizan automáticamente en nuestro ordenador según un programa especificado por el proveedor del contenido. El navegador MS. I.E. 4.x de Windows permite mostrar los canales en el explorador como otras páginas Web estándar, en ventanas completas o en el escritorio. Algunos canales también están diseñados para ser utilizados como protectores de pantalla. La subscripción a un canal puede realizarse según un perfil sugerido por el proveedor de contenido o puede personalizarla el cliente. En el capítulo 7 se detallan los procedimientos previstos en el explorador de Windows para manejar los canales ( 7.4).

§5 Perfiles
Otro paso mas en la escala viene representado por los denominados perfiles ("Profiles"). Un perfil (un programa robot) inspecciona determinadas páginas Web u otras fuentes de información específica recuperando automáticamente la información. Es posible establecer criterios sobre el tipo y clase de información deseada (palabras clave, fechas, valores, reglas de comparación etc.). Una vez que se han alcanzado las condiciones que nosotros mismos hemos establecido, los perfiles envían la información. Los procedimientos que utilizan para comunicar con el cliente son similares a los de las noticias, aunque no se limitan a realizar un informe diario o a intervalos regulares como aquellas, de hecho, los contactos son impredecibles, dado que ocurren cuando se cumplen las condiciones que hemos establecido (que un valor de bolsa alcance un precio determinado, un stock de material descienda de una cifra, noticias relativas al precio del grano en tal zona, etc).
Un estilo análogo se manifiesta en la forma de actualización de algunos programas, especialmente de los relacionados con las tecnologías de la Red, en los que se advierte una creciente tendencia a usar la tecnología Push para actualizar, enviar avisos de actualizaciones disponibles u otro tipo de noticias relacionadas con el producto, aprovechando los momentos de uso de los citados programas en los que se dispone de conexión a la red. En estos casos, si al arrancar se dispone de conexión a la red, el programa se encarga de avisar al sitio del fabricante y en función de la versión, este puede enviar automáticamente la actualización o un simple mensaje de que esta está ya disponible para su descarga bajo demanda; por citar uno entre muchos, el buscador Copernic de Agents Technologies actualiza de este modo su información sobre los diversos canales [1] o el famoso diccionario Babylon cuando actualiza su vocabulario, o las cotizaciones de divisas.

§6 Channel-changer
La tecnología channel-changer se basa en la subscripción a un servicio y en un agente software, en el ordenador cliente, que avisa automáticamente a la base cuando el equipo está conectado a la Red, de forma que comienza a descargar el contenido contratado, el cual puede ser visto mas tarde en diferido sin necesidad de estar conectado. Con el fin de no ralentizar los otros procesos, el agente se encarga de suspender y resumir la transmisión en las pausas de la navegación cuando no se está utilizando todo el ancho de banda disponible, además suele disponer de lo que se conoce como descarga diferencial (differential download), solo se descarga aquello que ha cambiado, además los contenidos suelen transmitirse comprimidos.
Esta tecnología channel-changer, que supone un aviso del cliente a la base de que está conectado, para desencadenar algún tipo de acción por parte del servidor, es un modelo muy prometedor sobre el que se están construyendo varios tipos de aplicaciones y utilidades, por ejemplo la descrita en el conocido programa ICQ (ver capítulo 5).

[1] Como veremos más adelante ( 6.3), al referirnos al Spyware (software espía), esta utilización a veces raya en la ilegalidad y en el menoscabo de nuestra privacidad, cuando determinados programas (a veces no somos conscientes de su existencia en nuestro ordenador), acechan nuestros movimientos por la Red e informan a sus creadores sobre ellos.

4 Servicios de Internet y otros conceptos
4.3 Servicios de Internet

§1 Sinopsis
La red de redes así establecida ( A2.1a), comenzó a ser utilizada de muchas formas y con muchos propósitos, cada una de estas formas de uso es lo que se conoce como un servicio, una forma estandarizada de utilización, lo que a su vez requiere el uso de protocolos (estándares) universalmente aceptados tanto por los "clientes" como por los "proveedores" del servicio. Un caso paradigmático en este sentido, podría ser el correo electrónico. Por supuesto los servicios no han sido siempre los mismos ni se han utilizado exactamente de la misma forma; algunos han aparecido nuevos (uno de los últimos y más espectaculares, la Web), otros han sufrido modificaciones y otros siguen prácticamente igual que en sus orígenes.
Aunque cada uno será expuesto con mas detalle en el capítulo correspondiente ( 8), adelantamos aquí un breve resumen de los principales servicios que ofrece actualmente (año 2000) la Red, aunque debemos advertir que Internet es una criatura viva, de desarrollo muy rápido y en constante evolución. Continuamente están surgiendo iniciativas y modos de uso que, en caso de tener éxito, pueden convertirse rápidamente en "servicios" estándar; otros que fueron muy populares pierden rápidamente aceptación al se utilizados de otro modo. Algunos de estos servicios son muy populares y conocidos, otros son mas especializados y desconocidos a nivel del usuario de a pié.
• Correo electrónico (e-mail).
• Emulación de terminal TELNET: se utiliza para conectar a equipos remotos mediante la Red emulando un terminal del equipo al que se realiza la conexión.
• Transferencia de ficheros FTP: se usa para enviar o recibir ficheros (de cualquier tipo) entre dos equipos conectados a la red.
• Servicio de nombres de dominio DNS ("Domain Name Service" A3.5): en realidad es un servicio que raramente se utiliza solo; es usado por otros, como TELNET, FTP, WWW, etc. para conseguir las direcciones IP (numéricas) de las máquinas remotas a partir de los nombres de dominio.
• Gopher: Un servicio de información basado en servidores y que sirve de interfaz para otros servicios de información.
• WAIS ("Wide Area Information Service"): como su nombre indica, se trata de otro servicio de información basado en bases de datos de ficheros que permiten su rápida localización.
• finger: Un servicio de identificación de usuarios ( N-13).
• La Web, WWW, W3: un servicio basado en HTTP (Hyper Text Transfer Protocol), el último y más popular que está fagocitando a muchos de los anteriores [1].
• Sistema de ficheros de red NFS ("Network File System"): un sistema que permite a los equipos físicamente distantes compartir discos y directorios, mediante la técnica denominada RPC ("Remote Procedure Call"), que hace que tales recursos aparezcan como si estuvieran en el propio sistema.
• Servicios de Información de Red, NIS ("Network Information Services"): también basados en RPC, permite que varios sistemas puedan compartir una misma base de datos situada en remoto; por ejemplo, varios sistemas pueden compartir bases de datos con el mismo fichero de seguridad (password file), lo que facilita su gestión centralizada.
• Servicios "R": tales como rlogin, rsh y otros. Utilizan la idea de acuerdos entre sistemas (hosts trusting), que permite ejecutar comandos y otras órdenes en equipos remotos sin requerir un password.
En lo que sigue, añadiremos una somera descripción de algunos conceptos informáticos que son de referencia constante al tratar de asuntos y servicios relacionados con Internet.

[1] Como vemos, el servicio de exploración de páginas de hipertexto, eso que llamamos la Web, es uno de los muchos servicios que ofrece Internet, y aunque quizás el más popular (junto con el correo electrónico), no es desde luego el único.

4 Servicios de Internet y otros conceptos
4.4 Cliente/Servidor

§1 Sinopsis
Ya vimos ( A3.1) que Internet es una gigantesca red de ordenadores y sub-redes interconectados. Entre estos hay de muchas clases, tamaños, Sistemas Operativos, etc. Pero desde un punto de vista funcional las tareas están generalmente agrupadas, de forma que desde esta perspectiva (de su funcionalidad), podemos establecer tres grandes grupos: Servidores, Clientes y Correos o enrutadores.
Los primeros son máquinas que actúan como "almacenes" de información, esta información es solicitada por los ordenadores-cliente, de forma que el Servidor responde a peticiones de información devolviendo los datos solicitados. Este paradigma de funcionamiento Cliente-Servidor es utilizado constantemente en la informática distribuida (donde existen muchos ordenadores inter-conectados). Como existen muchos tipos de almacenes de información, existen muchas clases de servidores, por ejemplo:
• Servidores DNS: Al tratar del servicio de direcciones ( 1.e), hemos visto que se encargan de devolver la dirección IP (numérica) en respuesta a una petición alfabética, o cuando menos la dirección de otro servidor DNS que contiene dicha información.
• Servidores de Correo: Los que almacenan y reexpiden los mensajes de correo electrónico (e-mail). Funcionan exactamente igual que el servicio de correos convencional; la información que manejan son mensajes de correo.
• Servidores Web ("Web server"): Almacenan "Sitios" Web, inicialmente páginas de Hipertexto en formato HTML, actualmente guardan también imágenes, música (sonidos) e incluso ficheros ejecutables, bases de datos, etc. Actualmente casi todos los sitios Internet están adoptando la apariencia (la interfaz) Web, y responden a las peticiones de los navegadores. La información que está viendo en este momento proviene de un servidor Web donde están alojadas estas páginas, una copia han viajado a su ordenador a requerimiento de su navegador que las muestra según las recibe.
• Servidores FTP: Son almacenes de ficheros preparados para ser descargados y consultados mediante técnicas FTP. Inicialmente, casi toda la información habida en lnternet estaba en estos servidores; aunque muchas instituciones y universidades mantienen servidores de este tipo con gigantescos directorios de ficheros, su utilización (como otras muchas del Internet) está descendiendo en favor del "formato" Web. Los programas para "bajar" ficheros de servidores FTP, otrora muy populares, están prácticamente desapareciendo como aplicaciones "stand-alone" [1], aunque por supuesto el concepto FTP se usa amplia y cotidianamente.
• Servidores de Noticias ("News server"). Almacenan los cientos de miles (millones) de mensajes hacia/desde decenas de miles de grupos de noticias que existen en la Red.
• Servidor de terminales ("Terminal Server"): Un ordenador utilizado para conectar muchos módems así como una conexión de red de alta velocidad a otro ordenador (host). El servidor de terminales hace el trabajo de atender las llamadas telefónicas de los módems y pasar la comunicación al host (un nodo Internet) por la línea de alta velocidad. Esta función se conoce en informática con el nombre de "Front-End".

Cuando la operación entre clientes y servidores se realiza a través de una red (como es el caso de Internet), la información viaja codificada a lo largo de redes que pueden ser del tamaño de un edificio o de tamaño planetario. En caso de redes grandes, aparte de servidores y clientes, se necesita un tercer tipo de máquinas para gestionar las transmisiones. Se denominan enrutadores ("Routers") y funcionan como elementos de recepción y transmisión de tráfico Internet. Estos equipos (junto con los telefónicos) tienen una finalidad exclusivamente transmisora de la información, sin importar su uso o contenido que pueda tener la información transportada ( 4.6).
El paradigma cliente-servidor no solo se utiliza en referencia a las máquinas físicas, también a los programas que las hacen funcionar según su utilidad. Por ejemplo, son frecuentes expresiones tales como "cliente de correo" o "servidor de noticias" en referencia a programas. La primera se refiere al que utilizamos normalmente para interrogar nuestro buzón e-mail, "bajar" el correo y manipularlo (verlo, imprimirlo, borrarlo, etc.); el segundo se refiere a un programa o sistema de ellos que en un servidor (máquina) realiza el trabajo de alojar los mensajes de noticias, atender las peticiones de los "clientes", etc.
Observe que en realidad el concepto cliente/servidor es muy genérico que puede ser entendido incluso en el ámbito de una sola máquina donde unas aplicaciones pueden prestar servicio a otras. Sin embargo, su significado desde el punto de vista informático suele presuponer la existencia de varias máquinas (al menos dos) unidas en una red:
• Un servidor es cualquier máquina que dispone un recurso para ser compartido.
• Un cliente es cualquier máquina que necesita un recurso externo.
• Un servidor de determinado recurso puede ser cliente de otros y a la inversa, un cliente puede ser a su vez servidor de otro recurso.

[1] El término "Stand alone" se utiliza para designar aquellas aplicaciones que pueden ejecutarse y controlarse por el operador como entidades independientes de cualquier otra (en el sentido que Usted usa un procesador de textos, por ejemplo). La expresión se utiliza en contraposición a aquellas rutinas llamadas por alguna otra aplicación para ejecutar alguna tarea específica, pero en cuyo uso tenemos poca o nula intervención. Por ejemplo, cuando en el navegador apuntamos un icono que dice "descarga" (de un fichero), en realidad llama a un programa FTP que es el que nos pregunta donde queremos guardar el fichero que vamos a traer, pero ahí acaba nuestra intervención. En realidad es un módulo (FTP) del Navegador.

4.5 Otros conceptos

§1 Anfitrión
Se dice que un ordenador es anfitrión ("Host") de otro, que es el cliente o huésped, cuando proporciona servicios (de almacenamiento de datos u otro tipo) al un cliente. Por ejemplo, en el sentido al que aludíamos en ( A3.9) al tratar los diversos "servicios" que podemos obtener de un ISP. Este concepto de hospedaje cibernético ("Hosting") es muy utilizado en informática para referenciar a este tipo de servicios. Por supuesto, muchos ordenadores de la Red (todos los ISP) hacen funciones de "hosting" en mayor o menor medida.
Como tradicionalmente los ordenadores dedicados a estas funciones eran sistemas grandes, el vocablo Host ha quedado también, un poco, como sinónimo de gran sistema (Mainframe), en contraposición a la idea de PC (computador personal). Aunque en realidad, un computador personal no tiene porqué ser pequeño necesariamente, la designación PC está también asociada, inevitablemente, a una idea de tamaño pequeño.

§2 Equipo Local/Remoto
Desde que se conectaron por primera vez dos ordenadores entre sí, apareció el paradigma informático local/remoto, que se refiere a los dos equipos (por supuesto desde el punto de vista del usuario). El equipo "Local" es un equipo próximo, accesible, generalmente un PC, o quizás un gran ordenador del Departamento de la Universidad o de una empresa (con el que se trabaja mediante una terminal). Mediante la conexión el usuario puede trabajar, acceder, consultar, modificar, etc. información o datos en otro equipo, quizás en el otro extremo del planeta, el "Remoto".
La conexión con un equipo remoto, para lo que Internet facilita las herramientas y servicios adecuados, fue por supuesto uno de los motivos fundacionales de ARPANET ( A2.1). En general, además del programa adecuado y la conexión, se requiere algún tipo de autorización para utilizar el equipo remoto, generalmente en forma de identificación como usuario autorizado mediante un nombre de usuario y una clave de acceso ("Password") [1].
Actualmente, existen programas comerciales que permiten conectar con un ordenador remoto (que puede ser un humilde PC o un gran ordenador) desde nuestro equipo (otro PC) y llegar a actuar "como si" estuviéramos sentados frente a la pantalla y a los mandos del otro ordenador (se puede llegar a suplantar completamente al operador del otro equipo).
Esta forma de utilización de sistemas remotos existe desde hace años; en un principio se utilizaban conexiones "directas" entre ordenadores mediante la red telefónica (RTB); todo lo que se necesitaba era un programa adecuado en cada una de las máquinas a conectar (local y remota) y un par de módems. Actualmente contemplamos una progresiva migración, sustituyéndose la conexión directa RTB por la conexión a través de Internet; esta última presenta la ventaja del abaratamiento del coste de la conexión, pues permite sustituir el enlace telefónico convencional por el enlace a través de Internet. A continuación exponemos dos ejemplos de este tipo de programas.
HiperTerminal
Este es el programa que acompaña al SO MS Windows para realizar conexiones remotas. Normalmente en: C:\Archivos de programa\Accesorios\HyperTerminal\HYPERTRM.EXE
En concreto, la versión que acompaña a Windows 98 2e ha sido desarrollada para Microsoft por una compañía independiente: Hilgraeve [url]http://www.hilgraeve.com[/url]
VNC

Aunque existen muchos programas que permiten conectar con un ordenador remoto y trabajar en él como si estuviésemos en una consola frente al mismo, este es posiblemente uno de los mejores, además es Freeware y viene de la mano de los laboratorios de AT&T, lo que supone una excelente tarjeta de presentación. [url]http://www.uk.research.att.com/vnc/[/url]
VNC significa "Virtual Network Computing". Se trata de un sistema de pantalla remota que permite ver el escritorio de un equipo remoto desde una máquina local. El equipo remoto puede estar en cualquier parte de la Red y puede ser cualquier tipo de máquina (no necesariamente un PC con Windows). El programa se compone de dos módulos, el "servidor" que genera las imágenes en el ordenador remoto y el "visor" que permite ver la imagen en la pantalla del ordenador local.

El programa tiene dos características principales: La primera es que puede correr sobre arquitecturas diferentes, por ejemplo, desde un PC en casa podemos estar viendo un Host corriendo UNIX, Linux, Macintosh, Solaris, etc. La segunda es que aunque se interrumpa la conexión momentáneamente, no hay consecuencias; incluso puede ser retomada desde otro sitio distinto, lo que confiere al cliente una gran movilidad.

.

[1] En los grandes sistemas multi-usuario, cada usuario tiene registrados unos determinados derechos de acceso: Que cosas puede hacer, a que directorios puede acceder, cuanto espacio de disco puede utilizar, etc. Mediante el nombre de usuario ("User name") nos identificamos al sistema; mediante la clave de acceso ("Password") -una palabra o frase secreta distinta para cada usuario y que solo debe conocer este- garantizamos que somos quien decimos ser. Esta es la forma más tradicional y clásica de identificación, aunque existen otras, por ejemplo, la introducción de una tarjeta que solo posee el usuario autorizado u otras más "personales", basadas en características biométricas como puede ser la retina, la voz, la huella dactilar o la caligrafía.

5 Historia Moderna de Internet y otros conceptos

§1 Sinopsis
En el presente capítulo continuamos la historia de Internet, que abandonamos en el capítulo 2, haciendo una reseña de su "Historia moderna", que suponemos arranca con la introducción de páginas de hipertexto [1], y comentando su desarrollo y evolución hasta la actualidad.
Exponemos también algunos conceptos e ideas básicas que ayudarán a una mejor comprensión de ciertas cuestiones relacionadas con Internet.
Terminamos dando una pincelada sobre las tendencias actuales; como se está moviendo esta tecnología en la que los años se miden por meses, y hacia donde (creemos) que va la Internet.

[1] Páginas escritas en un lenguaje informático denominado HTML ("HiperText Markup Languaje"), que junto con los programas auxiliares, navegadores ("Browsers") y servidores, hacen posible lo que hoy conocemos como "La Web".

5 Historia Moderna
5.1 Origen de la Web

§1 Sinopsis
Hasta el verano de 1.991, el uso de Internet era bastante restringido; todo se reducía a usuarios en Universidades y centros de Investigación repartidos por el mundo que accedían a los servicios que proporcionaba la Red, mediante programas cuya utilización exigía secuencias de comandos totalmente crípticos para el profano. Casi todas las máquinas utilizaban el SO. Unix, cuyo manejo no tiene precisamente fama de sencillo y cuyo intérprete de comandos (un sistema de órdenes por las que el operador indica al sistema que quiere que haga), no es lo que podríamos calificar como muy "intuitivo". El resumen era que si uno quería, por ejemplo, conectar con un servidor FTP ( 8.2) en un organismo o institución remota, consultar sus fondos, "bajarse" un fichero e imprimirlo, tenía que hacer todo esto a "pedal" (la Red solo era utilizada por especialistas).


Tim Berners-Lee

Así las cosas, el británico Berners-Lee [1] (al que se considera el padre de la Web), que a la sazón trabajaba en el CERN de Ginebra [2], empezó a escribir un programa que le permitiera almacenar información. De modo magistral, dio forma y aplicación a un par de conceptos que ya habían sido formulados anteriormente de forma más o menos vaga y genérica: El hipervínculo, que conducía directamente al concepto de hipertexto [3], de ahí al de páginas HTML (páginas Web) que a su vez, darían origen a un nuevo servicio de Internet (mejor diríamos una nueva forma de usar la Red) que acabaría arrasando, y a un nuevo paradigma de arquitectura de la información: Los "Hypermedia".
Las páginas de hipertexto, con sus hipervínculos enlazando información en cualquier parte del mundo, tejen una telaraña mundial [4], de ahí el nombre que recibió, Telaraña Mundial, "World Wide Web" [5], abreviadamente "La Web"; WWW o W3.

§2 Una opinión autorizada:
Por su interés, y por tratarse de un personaje "Histórico", antes de extendernos en detalles sobre toda esta jerga de siglas (HTML, HTTP, Hipervínculo, etc.), reproducimos un trozo de una entrevista publicada en el diario "El País" con el "Padre" de la Web.
En el país de Bill Gates, Marc Andreessen y los demás multimillonarios de Intemet, se ve a Tim Berners-Lee como una especie de forma de vida extraterrestre. Tim Bemers-Lee, de 42 anos (1997), el discreto inventor británico de la Web (Red), el servicio de Internet que ha popularizado la red global, se negó a convertir su invento en la gallina de los huevos de oro. Tomó la decisión de no patentar su obra para mantener la Red abierta al mayor número de gente posible. Berners-Lee es realmente modesto: Hay montones de tecnologías inteligentes y cientos de genios en el mundo. Si la Red ha tenido un impacto de tales dimensiones, es simplemente porque es global.
Pregunta: Cómo creó la red mundial?
Respuesta: Cuando trabajaba en CERN. en 1989, empecé a escribir un programa para mí mismo que me permitiera almacenar información. Pensé que tendría un impacto asombroso el hecho de que el público pudiera compartir sus conocimientos en una red. Me rondaban tres cosas por la cabeza. Una era el tremendo poder personal derivado de tener a la vez una enorme cantidad de información disponible y ser capaz de escribir hipertexto. Un hipertexto permite establecer referencias con conexiones en todas partes. Se puede escribir un documento con mucha fuerza si se le compara con un texto normal.
Lo segundo era la emoción de encontrar formas nuevas de trabajar en equipo de manera más eficaz, y especialmente, atravesando barreras geográficas. Hasta en la misma oficina se daba una nueva manera de comunicarse compartiendo conocimientos a través de la red. Y la tercera era llegar a ser capaz de analizar la estructura de la sociedad a través de lo que sucede en la red.
Intenté convencer a los demás de que era una buena idea, pero se trataba de algo más apropiado para un laboratorio de tecnología que para uno científico, que era donde yo trabajaba. Sin embargo, mi jefe lo apoyó y hacia finales de 1990 hice el proyecto. Lo coloqué en Intemet en el verano de 1991 y a partir de entonces ha experimentado un desarrollo constante.
Pregunta: Tras haber desarrollado la Red, ingresó en el Instituto de Tecnología de Massachusetts en 1994. ) Quiere esto decir que el futuro de la Red está en EEUU?
R.: Desde luego que no. Entré en el MIT [6] porque históricamente el centro de Internet se halla en EEUU La consecuencia fue que la red despegó allí muy rápidamente, mientras que Europa no disponía de una red trans europea semejante. De modo que, por razones prácticas, teníamos que tener una base en EEUU para poder gestionar el Consorcio WWW que coordina Internet y desarrollar la WWW en Intemet.


[1] Timothy Berners_Lee nació y se crió en Londres. Sus padres, Conway y Mary Berners-Lee, son matemáticos. Ambos trabajaron en el primer ordenador comercial de Inglaterra (el Ferranti Mark I). Acabó física teórica en 1976, en el Colegio Queen de Oxford, con las mejores notas. En 1980, tras trabajar componiendo programas de ordenador en diferentes empleos, pasó seis meses en el CERN de Ginebra, donde diseñó una especie de agenda informática para Internet llamado "Enquire-Within-Upon-Everything", que le ayudaba a seguir el rastro de sus propias conexiones esporádicas. Volvió al CERN en 1984 en calidad de ingeniero de programación. Posteriormente pasó al MIT, y en la actualidad dirige el W3C. En el 2004 fue nombrado por la rina Isabel II Caballero Comandante de la Orden del Imperio Británico, pasando a ser Sir Timothy.
[2] Laboratorio Europeo de Física de Partículas CERN ("European Particle Physics Laboratory") [url]http://www.cern.ch[/url]
[3] En realidad Berners no inventó el hipertexto; el concepto era conocido desde antes; de hecho, en su primer documento de declaración de propósitos presentado a las autoridades del CERN para que aprobaran el proyecto, admite y explica que se han hecho algunos intentos e investigaciones al respecto: "Defence has given a big incentive to hypermedia research...". Su mérito fue aplicar el concepto a las capacidades de la Red de una forma clara, simple y bastante madura desde el principio.
[4] No confundir "la Web" con "la Red". La Red (con mayúsculas) es Internet y como hemos visto, estaba inventada bastante antes. La Web es uno de los muchos servicios que proporciona Internet, aunque actualmente ha devenido en el principal y casi único para el profano; además, como la Web es, entre otras cosas, una "interfase" para utilizar la red (de tremendo éxito), muchos de los servicios se han "maquillado de Web", adoptando formas compatibles con los navegadores.
[5] El nombre se debe al propio Berners-Lee, que lo eligió como adecuado para su proyecto después de haber considerado otros igualmente sugerentes: "Information Mesh", "Mine of Information" e "Information Mine".
[6] MIT ("Massachusetts Institute of Technology"). El famoso Instituto de Tecnología de Masachusset, institución de un enorme prestigio en el ámbito de la ciencia y la tecnología; más información en:
Sitio oficial: [url]http://web.mit.edu[/url]
Alumnos: [url]http://www.mit.edu[/url]

5 Historia Moderna
5.2 Ideas básicas: Hipervínculo, hipertexto

§1 Hipervínculos e hipertexto
La idea de hipervínculo es muy sencilla, se trata de la referencia a una información que no está en el texto sino fuera de él. En un escrito normal, una llamada a pié de página; la referencia a una nota al final de texto, o una cita a cierto pasaje de otra obra, son "vínculos", es decir, son sencillamente direcciones que conducen a sitios donde podemos encontrar información adicional relacionada (o debería serlo) con el tema que tenemos a la vista. Lo que hizo Berners-Lee, fue aplicar este concepto (de forma muy general) a documentos electrónicos, aprovechando las capacidades de la informática y más concretamente de Internet [1] Como se trataba de documentos electrónicos y además los tales vínculos tienen en este caso una enorme ubicuidad, y desde luego gran potencia, a la palabra normal se le ha antepuesto el prefijo "Hiper" y ya tenemos la palabreja hipervínculo (que suena más impresionante).
La tecnología informática de red (que por entonces ya estaba planamente operativa), permite que una llamada a pié de página, a otro punto del texto (no importa que esté mil páginas mas adelante), e incluso a un punto concreto de un documento en un ordenador al otro lado del mundo, puedan ser accedidos casi instantáneamente. Para dar forma a esta idea, Berners-Lee estableció una forma estandarizada para que en determinados pasajes de cualquier documento electrónico de un tipo especial (que se llamaría hipertexto) [2], se pudieran insertar unas etiquetas especiales (hipervínculos o hiper enlaces) que contuvieran la dirección electrónica de la información que se quiere referenciar. Apuntando sobre dicha etiqueta, el sistema se encarga de reclamar para nosotros la información de forma automática y de presentárnosla directamente en pantalla.
Fácilmente se comprende que la estructura de referencias así creada, puede crecer exponencialmente en complejidad, cuando el documento referenciado por un hipervínculo contiene a su vez hipervínculos que "apuntan" a documentos que a su vez contienen hipervínculos que a su vez...[3]. Es por esto que eligió el nombre de "Telaraña mundial" para su proyecto. En palabras del propio Berners-Lee: "El mundo de la Web es por tanto un mundo de información y parte de esa información es información sobre información" (¿Será alguna vez el verdadero "cerebro" del planeta?).

§2 Concretando la idea
Para dar forma concreta a su idea, Berners-Lee se inventó un sistema especial de escritura de páginas mediante un lenguaje ad-hoc, al que denominó Lenguaje de Marcas de Hipertexto HTML ("Hyper Text Markup Languaje"). Esta escritura está orientada a la presentación de datos en la pantalla del ordenador [4], y en ella, junto con el texto e imágenes que se quieren mostrar, se incluyen una serie de órdenes y comandos que indican "como" debe representarse la información, así como la forma en que deben embeberse en el documento las etiquetas de hipertexto a que antes nos referíamos. En 1990 escribió el primer "editor+visor" de HTML, un programa denominado "WorlDwidEweb", que corría en un ordenador NeXT Step.
Una vez escritos los documentos, quedaban cuatro cuestiones que resolver: Poder localizarlos fácilmente; poder transmitirlos por la red; poder visualizarlos en las pantallas de los receptores, y desde luego, hacerlos accesibles a todo el que quisiera consultarlos.

En cuanto a la primera, para referirse a los documentos concretos, dentro de la inmensidad de la Red, Berners-Lee ideó un sistema de direcciones al que denominó Localizador de Recursos Unificado URL ("Unified Resource Locator"). El concepto está estrechamente relacionado con el de URI ("Unified Resource Identifier") [5]. Una "dirección" URL tiene un aspecto como:
[url]http://www.cerberus-sys.com/belleisl/tune.htp[/url]

Por supuesto, contiene toda la información necesaria para saber en que dirección IP está el ordenador que contiene el documento; la posición del fichero dentro del ordenador; su nombre, y datos que indican que se trata de un documento de hipertexto y que protocolo utilizar para accederlo [6]. En el Apéndice G ( Ap. G) se amplían detalles sobre este concepto y sus diversas formas.

§3 Herramientas auxiliares
Para el segundo problema, Berners estableció las bases del protocolo HTTP ("Hyper Text Transfer Protocol") que se utiliza para transmitir los documentos HTML (documentos Web) de un punto a otro [7]. En cuanto al tercero (la visualización), escribió un programa especial para "ver" los documentos HTML. Este programa, que después se ha llamado Browser o Navegador, es en realidad un visor de documentos HTML. Puede deducirse fácilmente que lo de "Navegador" viene de que al mirar documentos HTML, debido a su enorme facilidad para pasar de un documento a otro mediante hipervínculos, el resultado es muy parecido a "navegar" por la red dando saltos de un punto a otro.
Nota: Es esta es una característica distintiva de la Web; el hecho de poder saltar de un documento a otro, nos permite estar viendo un documento y un instante después, mediante un clic de ratón, estar viendo otro que está en la otra parte del mundo. Decimos que "navegamos", pero en realidad solo vemos documentos que no están demasiado lejos; han sido transmitidos a nuestro ordenador por el protocolo HTTP; el "Browser" se encarga de mostrárnoslos. Los que navegan son realmente los documentos, o mejor "copias" de ellos, que nos envían los servidores Web.

§4 El primer sitio Web
Por último, para poner en marcha la idea, para hacer accesibles los documentos a toda la comunidad Internet, necesitaba desde luego un servidor de páginas HTML, que el mismo Berners-Lee alojó en los ordenadores del CERN en el verano de 1991. Con gran visión, colocó en este servidor primigenio [8] las especificaciones sobre HTTP, URL y HTML, a fin de que pudieran ser accedidas por todos y pudiera establecerse un foro de discusión sobre ellas. Así pues, la primera Web incluyó básicamente información sobre la Web. La primera información accesible como tal, fue un listín de teléfonos del CERN, de forma que la primera impresión sobre ella era la de ser una agenda telefónica con una apariencia extraña. Siguieron informaciones sobre las materias concernientes al CERN, de forma que sus primeros usuarios pertenecían al círculo de la física teórica [9].

[1] Parece existir universal consenso en atribuir la paternidad de la idea a Vannevar Bush. Ingeniero Norteamericano que fue pionero y precursor de la idea. Director de la Oficina de Desarrollo e Investigación Científica durante la II Guerra Mundial, asesor del presidente Roosevelt para temas científicos y posteriormente vicepresidente del MIT y Director de la Carnegie Institution. En Julio de 1.945, en su famoso artículo "As we may think" en el Atlantic Montly, desarrolló estas ideas (aunque el término hipertexto fue acuñado mas tarde) concretándolas en una máquina, Memex con la que pretendía resolver el creciente problema de la información científica y técnica que comenzaba a ser desbordante (en su calidad de director de la Oficina de Desarrollo e Investigación Científica, tenía que dirigir y coordinar la actividad de unos 600 investigadores de élite). Desafortunadamente su ingenio no tuvo éxito, pues adelantado a su época, carecía de los instrumentos electrónicos adecuados para llegar a ser práctico (Memex era una especie de pupitre electromecánico que almacenaba la información en microfichas).
[2] Los términos Hipertexto e Hypermedia fueron acuñados por Ted Nelson en un documento de la 20 conferencia nacional de la ACM. "By 'hypertext' mean nonsequential writing-text that branches and allows choice to the reader, best read at an interactive screen". Ver en el Apéndice H más información relativa a este precursor ( Ap. H).
[3] Como puede verse, el sistema resuelve en parte un viejo problema que ya había preocupado a Vannevar Bush: El hecho de que normalmente la información está organizada en índices jerárquicos (libros y bibliotecas). Cuando se encuentra cierto material y se quiere seguir la búsqueda de otro material relacionado, hay que salir del sistema y volver a entrar por un nuevo camino (nuevo índice); la mente humana en cambio parece funcionar por asociaciones muy dinámicas, mas que por índices.
[4] Esta concepción es rigurosamente historicista; en el capítulo 11 veremos que HTML ha devenido rápidamente en un vehículo para contenidos de tipo muy amplio y general.
[5] La distinción entre URL y URI, ("Locator" y "Identifier"), es meramente semántica y académica; con frecuencia se suelen confundir ambos términos. El primero referencia un contenido de "Dirección", algo que puede ser mutable con el tiempo, dado que se refiere a la localización del contenido en la Red y puede cambiar cada vez que el contenido es pasado de un sitio a otro o es clonado en un nuevo lugar. El segundo, se refiere a un contenido de "Nombre", algo que una vez asignado, sigue (o debería seguir) al contenido durante toda su vida.
[6] Como veremos en los ejemplo siguientes, la URL no solo sirve para apuntar a páginas Web, en realidad es un comando que tiene varios significados (puede solicitar varios servicios distintos al navegador).
[7] Por supuesto, que HTTP es una capa de software que usa a su vez los servicios de los protocolos estándar TCP/IP ( 3.1). No solo puede transferir ficheros HTML, también de otros tipos. Una característica (poco utilizada) de este protocolo, la "Negociación de Formato", permite al cliente negociar con el servidor ciertas características de la transmisión referentes al lenguaje y formato de los datos a enviar .
[8] La primera "dirección" de la Web fue: info.cern.ch.
[9] Así pues, tanto la concepción (la idea), como las primeras realizaciones de la Web son genuinamente Europeas.
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir