Ver Mensaje Individual
Antiguo 10/12/2004, 18:02   #6
Alfonso 
LÍDER CONCURSOS DEL FORO
 
Fecha de ingreso: 24/nov/2002
Mensajes: 1.291
Alfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradableAlfonso es realmente agradable
5 Historia Moderna
5.3 Desarrollo posterior, el W3C

§1 La historis continúa
Como hemos visto, Berners-Lee creó en 1990 las especificaciones del HTML, del HTTP y el precursor del URL. Junto a su compatriota y colega del CERN Robert Cailliau, dejaron su programa en el primer servidor en 1991. Los tres primeros años fueron una especie de cruzada en que intentaban persuadir a la gente que se sumara a la idea y la usaran. Finalmente, en 1993 empezó a popularizarse, cuando Mac Andersen y sus colegas del NCSA ("National Center for Supercomputing Applications") de la universidad de Illinois [1] (que habían visto uno de los primeros navegadores de la red, el Viola-WWW), escribieron el ahora famoso Mosaic [2]. Entre 1991y 1994 el número de clientes del Web pasó de 10 a 100.000; la carga de proceso del primer servidor se multiplicaba por 10 cada año. En Mayo de 1991 se pone en marcha el primer servidor Web de USA en el SLAC ("Stanford Linear Accelerator Laboratory").
En 1992 toda la comunidad científica estaba al corriente; en 1993 el proyecto empezó a ser considerado por la industria informática. La Casa Blanca tiene dirección de correo electrónico, [email]president@whitehouse.gov[/email], en Enero de este año hay 1.3 millones de ordenadores conectados a la Red. En 1994 se llega a 2.000.000 de ordenadores conectados; la Casa Blanca y el Congreso de los EEUU tienen páginas de información en la Web.

§2 El W3C
Sin embargo, el CERN, un organismo de investigación de física teórica, no era el marco más idóneo para un proyecto que crecía a un ritmo que amenazaba descontrolarse. El propio Berners admite: "La gente empezó a decir: Mira, esta cosa se está haciendo tan grande que nuestra compañía se está orientando totalmente en torno a la Red. Queremos estar seguros de que va a ser estable" y que empezó a estar bajo gran presión para que definiera la evolución futura. Después de muchas discusiones, en Septiembre de 1994, decidió crear el W3C ("World Wide Web Consortium"), con sedes en el MIT en USA, en el INRIA en Francia [4] y actualmente en la Universidad Keio de Japón.


El Consorcio es un foro neutral, abierto y apátrida, donde compañías y organizaciones para las que el futuro de la Web es importante, discuten y acuerdan nuevos protocolos informáticos. Ha llegado a constituirse en el centro donde se maduran los asuntos, se diseñan y consensuan las decisiones sobre los estándares de la Web y se planifica su desarrollo futuro [5].
A continuación se relacionan los organismos, comisiones y grupos de trabajo que tienen influencia y autoridad en lo relativo a la Web e Internet y el registro de nombres:
• Internet Engineering Task Force (IETF) [url]www.ietf.org/[/url]
• Internet Architecture Board (IAB) [url]www.iab.org/[/url]
• Internet Engineering Steering Group (IESG) [url]www.ietf.org/iesg.html[/url]
• World Wide Web Consortium (W3C) [url]www.w3.org/[/url]
• Internet Society (ISOC) [url]www.isoc.org/[/url]
• The Internet Corporation for Assigned Names and Numbers (ICANN) [url]www.icann.org/[/url]
• Internet Assigned Numbers Authority (IANA) [url]www.iana.org/[/url]
• International Telecommunication Union (ITU) [url]www.itu.int/[/url]
• European Telecommunication Standards Institute (ETSI) [url]www.etsi.org/[/url]
• International Trademark Association (INTA) [url]www.inta.org/[/url]
• World Intellectual Property Organization (WIPO) [url]www.wipo.int/[/url]

§3 Las normas de Ia Web
Las normas del W3C reciben nombres tales como RFC1521 ("Request For Comment"). En realidad RFC es el nombre del proceso de creación de un estándar, pero dado que la IETF [6] no es una autoridad (en el sentido que pueda obligar), mas bien un foro de debate y de adopción de acuerdos consensuados. El proceso es el siguiente:
Cuando interesa acordar la estandarización de algún asunto, se crea en el seno de IETF un grupo de trabajo conformado por un grupo de expertos interesados en dicho asunto que utilizan listas de correo como herramienta de trabajo. Tanto la creación del grupo como su composición es completamente libre. Cualquier internauta puede suscribirse a las listas de correo de uno de estos grupos y, a todos los efectos, pasar a formar parte del mismo. La experiencia de los años ha demostrado que este método es muy eficiente y que permite la elaboración de estándares de forma rápida.
En principio los documentos son borradores "Propuestas para comentar" (de ahí su nombre). Cuando hay consenso de que están completados pasan a ser una propuesta de estándar. Finalmente, cuando se han evaluado dos implementaciones independientes de la tecnología correspondiente, son ratificados, convirtiéndose en un estándar de facto. Sin embargo siguen conservando su nombre de nacimiento, las siglas RFC y el número que le correspondió a la primera propuesta.
Toda la información necesaria sobre la materia puede obtenerse en: [url]www.faqs.org/rfcs[/url].

§4 Mayoría de edad de Internet
En 1995 la red llega a su mayoría de edad, la NSF se retira y es privatizada totalmente.
En 1996, en una runión del Federal Networking Council Advisory Committee, el gobierno USA anuncia su intención de privatizar ciertas funciones importantes de Internet. En Agosto de este mismo año, el Consorcio agrupaba a unas 150 instituciones y empresas, entre las que se encuentra los principales líderes de la industria del Software y de la tecnología de la Web en general, incluyendo representantes de compañías cuyos negocios están basándose cada vez mas en su funcionalidad y ubicuidad. En realidad, el segundo quinquenio de los 90 puede considerarse la época de la difusión social de Internet; el vocabulario Internet toma carta de naturaleza entre el público, es aceptado por el mundo comercial y se inicia una auténtica explosión de proveedores de contenidos, de servicios, libros sobre el tema etc. que llega a ser objeto de atención de los medios de comunicación, prensa, radio y TV.
Como puede verse en el gráfico adjunto, que muestra el número de servidores Web a lo largo del tiempo a partir de 1996, el crecimiento ha sido constante. Según Alan Taffel, vice presidente de márketing de UUNet Technologies, en 1997 el tráfico de Internet debido a la Web se duplicaba cada tres o cuatro meses; a finales de 1998 cada mes se incorporaban mas de 3 millones de nuevos usuarios a la Red, y de acuerdo con los resultados de una reciente conferencia en Heidelberg (Alemania), promovida por el EURESCOM (Instituto Europeo de Investigación y Estudios Estratégicos de Telecomunicaciones), se estimaba que para el año 2.000 habría mas de 200 millones de usuarios de Internet en todo el mundo.
1999: En Marzo de este año, el prestigioso informe de Price Waterhouse Coopers "Technology Forecast", señala entre otras consideraciones, en sus más de 800 páginas, que el tráfico de Internet en Europa se duplica cada 100 días y que se espera pasar de los actuales 30 millones de usuarios a 85 en el 2002.
Nota: La World Wide Web cumplió en 1999 su décimo cumpleaños; al mismo tiempo Internet cumplía su treinta cumpleaños. Coincidiendo con tan señalada fecha se iniciaron en la Red varios proyectos que tenían como fin principal documentar la historia de la Web desde sus primeros pasos allá en 1989 hasta la actualidad. Uno de estos proyectos es el W3History, que puede consultarse en [url]http://www.w3history.org[/url]

§5 La fiebre .com
A las puertas del nuevo milenio (ver nota ), el desarrollo de la Web ha entrado en una especie de frenesí, todo el mundo, desde los sociólogos hasta los técnicos, pasando por anarquistas, estudiantes y enseñantes, empresarios y empleados, parecen fascinados con las posibilidades del nuevo medio al alcance de la humanidad (al menos la del primer mundo). La evolución es tan rápida que apenas logramos atisbar un nuevo concepto cuando aparece otro, nos asombramos ante una nueva forma imaginativa de uso (y negocio) de la red cuando se nos presenta otra aún mas audaz. La prensa nos sorprende con noticias de adquisiciones de empresas relacionadas con Internet por precios astronómicos, empresas que hace tres o cuatro años siquiera existían. El cambio es tan rápido que en palabras de Rodolfo Carpintier [7]: "La velocidad de crucero de años de dos meses (SUN dixit) crea revoluciones y cambios de tendencia por períodos cada vez más cortos y crear entornos que, en un par de años, corresponden a tres generaciones de productos de la era pre-Internet".
Desde el punto de vista económico, todas las empresas importantes hacen tremendos esfuerzos para tomar posiciones y estar las primeras en este nuevo mundo recién "descubierto" (por el gran público), algo así como una moderna fiebre del oro donde no se va a California, sino al Ciber-Espacio. Leemos que dentro de muy poco, enviar un "Currículum" por correo ordinario, en vez del electrónico será motivo seguro para ser rechazado, no solo eso, una buena presentación del mismo debería ser multimedia e interactiva, mejor ofreciendo la propia Web del candidato...
Nota: Como puede verse, el original del presente capítulo, escrito en 1998 corresponde al comienzo de la "Fiebre .com". Lo he dejado sin cambios porque refleja perfectamente el espíritu de una época.

[1] Este era uno de los cinco centros de super-computación del NSF.
[2] Uno de los primeros navegadores, escrito originariamente por Pei Wei, por entonces terminando su graduación en la Universidad de Berkley en California. Otros proto-navegadores fueron "Erwise", "Midas" y "Cello".
[4] INRIA ("Institut National pour la Recherche en Informatique et Automatique") [url]http://www.inria.fr[/url]
[5] Como no podía ser menos, en la propia "sede" oficial del Consorcio, [url]http://www.w3.org[/url], puede encontrarse abundante información sobre estas cuestiones.
[6] IETF ("Internet Engineering Task Force"). Este nombre tan aguerrido corresponde a la fuerza de ingeniería de protocolos y desarrollo de Internet. Se trata de una gran comunidad de ingenieros de redes, operadores, vendedores e investigadores que tienen interés en la evolución de la arquitectura y en el correcto funcionamiento de Internet. Tiene su sede en: [url]http://www.ietf.cnri.reston.va.us[/url]
[7] "Comercio tradicional vs Comercio electrónico" Publicado en AECOC, Mayo 1998

5 Historia Moderna
5.4 Tendencias actuales

§1 Sinopsis
Intentaremos presentar aquí una visión de la Web actual (aunque la "rabiosa" actualidad en materia tan cambiante sea difícil de conseguir). Algunos de los asuntos expuestos, son realidades ya implementadas o en consolidación; otros son proyectos o desarrollos en curso, que si bien no han alcanzado el grado de estándares o recomendaciones oficiales del W3C ( A5.3), son cuestiones que se están considerando en los comités correspondientes. En cualquier caso, proporcionarán al lector una visión del estado actual, de las tendencias sobre la materia (que cuestiones están en candelero) y le permitirán saber en que dirección se está moviendo. Esto con independencia de que en el capítulo 10 juguemos a adivinos, hablemos de lo que se piensa será la evolución futura a mas largo plazo.

§2 Evolución
La idea primigenia de páginas electrónicas, que mediante etiquetas especiales (hipervínculos) devienen en un nuevo tipo de documento al, que llamamos hipertexto (páginas Web), ha sufrido una natural maduración y generalización con el paso del tiempo. La idea en sí misma ha sido muy elaborada, pues compete a una de las fronteras actuales de las ciencias de la información y del conocimiento. Uno de los últimos intentos (visionario por el momento), el proyecto Xanadu, del que por su interés conceptual incluimos un más detallado comentario ( Apéndice H), imagina un universo de ordenadores conectados (on-line) que nos permita todo el conocimiento como hipertexto, de forma que uno pueda leer cualquier cosa escrita en el mundo en cualquier orden que se desee; "El universo del conocimiento sin ninguna estructura predeterminada".
La ubicuidad de la Web ha permitido que todo este hiperespacio sea considerado actualmente como una extensión del escritorio de nuestro propio ordenador [1] (por utilizar una terminología Windows), aunque naturalmente esto presenta ciertos problemas, principalmente del tipo de propiedad intelectual y derechos de autor, cuestiones estas no resueltas todavía en la Red (en el apéndice antes citado se incluyen algunas consideraciones al respecto).

Por lo común no se habla ya de páginas en el sentido de documentos humanamente legibles; en su lugar se utilizan conceptos más amplios y abstractos, tales como "recursos" y "objetos". Se acepta que una dirección URL de la Web referencia específicamente un "objeto" de naturaleza entendible por las máquinas. El hipertexto ha dado paso a un concepto mas general, hipermedia [2], donde los objetos pueden contener datos de muchos tipos, empezando por información sobre su propia estructura. Este primer tipo de contenidos (con información sobre información) son generalmente conocidos como "Metadatos". Por supuesto que otra parte del contenido puede ser texto en formato humanamente legible, aunque también puede contener sonidos, música, imágenes (fijas o dinámicas) e incluso piezas completas de software que se ejecuten en la máquina del cliente (Applets [3], Cookies [4], etc). En palabras de Berners-Lee: "Una telaraña de documentos legibles por el hombre está emergiendo de una telaraña de datos entendibles por las máquinas. El potencial de la unión de hombres y máquinas trabajando juntos y comunicándose a través de la Web, puede ser inmenso".
Estas palabras, nos traen inevitablemente a la memoria las ideas, que una década antes del nacimiento de la Web, expresara Barry Lippman [5]: "Los ordenadores son el siguiente paso en la evolución humana; un salto hacia adelante equivalente al desarrollo de la corteza cerebral" (nosotros añadiríamos que la Web debería ser la corteza cerebral colectiva, raquítica o inexistente hasta ahora).

§3 Los negocios entran en la Red
La popularización y universalización de la Web está trayendo nuevos servicios y nuevos problemas que no existían en la Internet primitiva, además ha cambiado sensiblemente su filosofía. En un principio Internet, nacida en un ambiente de investigación académica y gubernamental, limitó estrictamente su uso a actividades de investigación, enseñanza y oficiales, siendo prohibida cualquier tipo de actividad comercial [6], sin embargo en 1991 se funda CIX ("Commercial Internet Exchange Association"); la idea, promovida por los grandes ISP USA, se basa en poderse enviar tráfico entre sus propias redes sin limitaciones, evitando tener que usar las redes troncales de la NSF.
La idea, puede parecer poco entendible bajo la óptica Española, donde al presente (1998), los ISP son legión. Una miríada de pequeñas y minúsculas compañías que basan su servicio en un servidor Web, quizás poco más que un PC, conectado con unos cuantos módems a la Compañía Telefónica. En cambio, en USA, donde el servicio telefónico está mucho más desarrollado, existen compañías ("IP Providers") que cuentan con sus propias redes privadas con puntos de presencia en las localidades más importantes y que ofrecen toda clase de servicios, incluyendo acceso a Internet (a la Web por tanto), además de otros específicos. Algunas de estas compañías [7] están orientadas a dar servicio (incluso intercontinental) a empresas, mientras que otras están mas orientadas al mercado de consumo.
Entre las primeras (servicio) se encuentran IBM Global Network [13]; Northern Telecom, y BBN Planet. Entre las últimas (mercado de consumo), las denominadas "Tres grandes"; son América Online, CompuServe y Prodigy. En lo que respecta a España, las pocas compañías con redes propias, capaces de haber podido ofrecer servicios comparables (por ejemplo RENFE), por una u otra razón se limitan a vender su capacidad de tráfico a la todopoderosa "Telefónica".
Además de ser entendida como un medio de almacenaje/recuperación de información y conocimiento de extensión universal, Internet y más concretamente la Web (por su facilidad de uso), está concitando toda una pléyade de nuevas aplicaciones basadas fundamentalmente en su capacidad bi-direccional de manejar la información.
A través de la Web es posible instalar sistemas que permiten video en tiempo real con escenas de lo que está pasando en el otro extremo del mundo, consultar mapas, el tiempo meteorológico, etc. Se pueden realizar observaciones astronómicas solicitando tiempo de uso de un telescopio o vigilar una empresa. Algunas de estas realizaciones permiten inter-actuar con robots remotos de forma que es posible controlar su actuación a distancia. Aunque las realizaciones actuales son por lo general rudimentarias y no pasan de ser meras curiosidades tecnológicas (debido principalmente a la congestión y falta de velocidad de la Internet), un examen superficial de algunas de ellas pueden servir como anticipo y muestra de las amplias posibilidades que encierra la idea y de las aplicaciones novedosas que pueden realizarse:
[url]http://www.yahoo.com/Computers_and_Internet/Internet/[/url]
[url]http://www.geocities.com/~anderberg/ant/machines/[/url]
En estas dos direcciones es posible encontrar una lista de cacharros y dispositivos conectados a Internet.
[url]http://www.usc.edu/dept/raiders[/url]
USC's Mercury Project: Tele-excavación; se controla un brazo robot para buscar objetos enterrados.
[url]http://www.eia.brad.ac.uk/rti[/url]
Bradford Robotic Telescope Operations Menu: Telescopio programable desde la red.
[url]http://rr-vs.informatik.uni-ulm.de/rr/[/url]
Interactive Model Railroad: Un tren en miniatura que se controla desde WWW.
[url]http://www.taponline.com/tap/spy-cams.html[/url]
Indice de cámaras en la red con imágenes del mundo real en directo.

Por otra parte, la Red parece estar llegando a su mayoría de edad. Desde su fundación y durante muchos años, fue subvencionada y tutelada por el Gobierno USA, primero a través de ARPA y después de la NSF, pero desde 30 de abril de 1995 en que trasladó el objeto de su interés a una nueva red experimental [8] vBNS (Very-High-Speed Backbone Network Service), ha reducido progresivamente los fondos asignados a Internet, previéndose llegar a anularlos completamente en 1998 [9]. Por de pronto, la operación de NSFNet (la que se considera espina dorsal de Internet), se ha privatizado, pasando a un consorcio de compañías comerciales.

§4 Luces y sombras
"El problema de las balas no son las balas en sí mismas, sino su velocidad".
Instructor militar.
Con su crecimiento, la Red está convirtiendo en realidad uno de los sueños de su fundador, que llegara a ser "Un océano de conocimiento compartido". Cada vez más pueden encontrarse contenidos de lo más variopinto; desde sesudos tratados de matemáticas, pasando por ofertas "Porno"; información sobre viajes; acceso a la base de datos de la Biblioteca del Congreso de los Estados Unidos [10]; un sitio especial que le indicará con detalle como deshacerse de su ordenador (si se cabrea con él); información sobre como fabricar explosivos o la mejor forma para suicidarse. La Web es ya un microcosmos donde todo tiene cabida y que se desarrolla en una forma que haría las delicias de los viejos anarquistas [12], aunque existen problemas e inconvenientes que hay que aprender a sortear.
Entre los problemas presentados empezaríamos destacando uno poco comentado, el que denominamos "La Rana Digital" [11]. Ocupan también lugar importante los relativos a la privacidad y a la seguridad de la Web; dentro de este último asunto, que engloba aspectos muy variados, podemos citar cuestiones como los de seguridad de los propios ordenadores, seguridad de la red, servicios de autenticación, validación y cifrado de mensajes; privacidad y control de contenidos por citar algunos. En los siguientes capítulos nos referiremos brevemente a cada uno de ellos para tener unas pinceladas del estado actual de estas cuestiones.

[1] De hecho, la difícil o imposible disociación: Navegador-Web/Explorador-del-propio-sistema, ha sido la principal baza de MicroSoft, acusado de prácticas monopolísticas, en su famoso enfrentamiento con la competencia en los tribunales USA.
[2] El primer sistema hipermedia parecer ser el realizado en 1978 por Andrew Lippman del Architecture Machine Group, del MIT, la película del plano de Aspen ("Aspen Movie Map").
Cuatro cámaras apuntando en otras tantas direcciones se montaron en un camión a través de las calles de Aspen tomando fotos a intervalos regulares. Las fotos fueron reunidas en videodisco y enlazadas de forma que permitían al usuario empezar su paseo virtual en un punto determinado y moverse hacia delante, detrás, derecha o izquierda. Una vez que se había elegido una ruta por la ciudad, el sistema podía mostrar las imágenes en una rápida sucesión creando sensación de movimiento. Un mapa mostrado simultáneamente, permitía al usuario saltar directamente a cualquier punto de la ciudad, sin necesidad de tener que "conducir" hasta el punto a través de las calles.
[3] Applet: Pequeño programa Java que se incrusta en una página Web y es tratado por el navegador como otro contenido mas (un dibujo, un sonido, etc). Son ejecutados por el navegador mediante una "Máquina virtual" Java; normalmente son archivos binarios con la etiqueta [b]class[/b] y se referencian directamente desde la etiqueta [b]applet[/b] que se inserta en la página HTML. Cuando el navegador lee esta etiqueta, pone en marcha la Máquina Virtual Java (si se ha habilitado para ello) que se encarga de interpretar el código en cuestión.
[4] Cookies: Su traducción literal sería "Galletitas"; se denomina así cualquier mecanismo que pueda utilizar un servidor para almacenar y recuperar información en/de un cliente; como se verá mas adelante, no existe realmente ninguna razón de peso para llamar Cookies a estos dispositivos software ( Nota-12).
[5] David Ritchie. "El cerebro binario". Ed. Planeta (Barcelona).
[6] Los términos de la AUP ("Acceptable Use Policy") de la NSF ("National Science Foundation"), que desde los tiempos de ARPANET controla la espina dorsal de Internet, excluyen cualquier anuncio, excepto relativos a nuevos productos para investigación o educación.
[7] En 1994 había en USA del orden de 50 de estas compañías de rango medio (regional).
[8] vBNS, la que se supone será la Internet del próximo milenio. Volveremos a ello en el capítulo 11.
[9] Hasta 1995 la NSF había invertido anualmente unos 11 millones de Dólares USA en el desarrollo de la NSFNet.
[10] La Biblioteca del Congreso de los Estados Unidos de América, [url]http://www.loc.gov[/url], está considerada la versión contemporánea de la famosa biblioteca de Alejandría ( 6.7).
[11] El término lo hemos tomado de un proyecto, desarrollado por los propios estudiantes, en el que se fotografió detalladamente la disección de una rana por un experto y se montó de forma interactiva con texto sincronizado, en un CD-ROM. El proyecto está destinado a evitar y mejorar la frecuente (para algunos traumática) experiencia de diseccionar ranas en los institutos USA.
[12] Sin embargo, al igual que aquél (el sueño anarquista), es posible que la ilusión se evapore rápidamente. Actualmente (2002) contemplamos el intento desde muchos gobiernos del planeta para controlar la Red; España no es ajena al asunto con la polémica presentación de la denominada LSSI (Ley de Servicios de la Sociedad de la Información) o Ley de Internet. Para que el lector pueda hacerse una idea de por donde van "las tendencias", en el enlace adjunto puede verse un breve análisis de la citada Ley española, publicado en la Red por el doctor Luis Fajardo López, profesor de Derecho de la Universidad Autónoma de Madrid (España) [url]www.fajardolopez.com/materiales/claves_integra.html[/url]
[13] Creo recordar que con posterioridad (a 1998) IBM se deshizo de su red mundial de comunicaciones
Alfonso está desconectado
Respuesta rápida a este mensaje
Responder Citando Subir