Uncategorized

Carles Bellver: Índices electrónicos en el World-Wide Web



Índices electrónicos en el World-Wide Web

 Carles Bellver Torlà
Este artículo se publicó originalmente en el número de febrero de 1996 de la revista Net Conexión.

En el estado actual del World-Wide Web la abundancia de recursos online puede resultar ya un problema. En ocasiones, lo difícil es localizar o seleccionar lo relevante: no perderse en la telaraña y encontrar el camino más corto hasta la información que buscábamos.

Una de las facilidades más apreciadas por los usuarios de la red son los servicios de exploración, como Lycos o InfoSeek, capaces de mantener bases de datos de todo el contenido del WWW y llevar a cabo cualquier búsqueda: si quiero encontrar unas cuantas páginas firmadas por Nicholas Negroponte, no tengo más que teclear su nombre en un formulario y sentarme a esperar una lista de enlaces.

Sin duda este tipo de robots exploradores nos hacen la vida más fácil a todos, pero en cualquier caso no eximen a un webmaster de sus obligaciones. Una de sus táreas consiste precisamente en hacer que la información disponible en el servicio que administra se pueda hallar fácilmente. Si uno recuerda que en EuroInfo dió casualmente con las fotografías de los miembros de la Comisión Europea, y al volverse a conectar le resulta imposible encontrarlas, la culpa no es suya, sino del administrador del servicio. Es responsabilidad suya proporcionar las herramientas de navegación, entre ellas alguna herramienta de búsqueda que permita preguntar por Marcelino Oreja y llegar hasta su foto.

Aquí es donde interviene WAIS. Brewster Kahle, fundador y presidente de WAIS Inc. declaraba en septiembre pasado a Internet World: «Nos gusta usar esta analogía: un libro tiene tres secciones, la tabla de contenidos, las páginas, y el índice analítico. Así que pensemos en la Internet como en un libro: está Gopher, que es la tabla de contenidos; está el World-Wide Web, que son las páginas de hipertexto; y está WAIS, que es una búsqueda directa cuando sabes lo que quieres.» Cuando uno sabe lo que busca, y sólo le falta encontrarlo, tiene WAIS, que sería algo así como un índice analítico para el WWW. Pero WAIS no se ha conformado siempre con este papel secundario. En un principio aspiraba a ser mucho más.

Radiografía de un perdedor

WAIS empezó en 1989 como un proyecto conjunto de Thinking Machines, Apple Computer y Dow Jones. La idea era, entonces, ambiciosa: sentar las bases para convertir las redes de comunicaciones en un nuevo y potente medio de distribución de la información, tan nuevo y tan potente que llegaría a cambiar el mundo (eso afirmaban literalmente algunos papeles divulgativos). Se consideraba que en un futuro más que inmediato, ya inminente, los documentos iban a residir tanto en el disco duro de nuestro ordenador personal como en otros discos accesibles por la red. Resultaba claro que a medida que fuese aumentando la capacidad de los discos y se interconectaran las redes, la cantidad de datos accesibles iría superando las posibilidades de los árboles de ficheros de las plataformas Unix, Macintosh y MS DOS. El problema fundamental podía ser ése, la dificultad de hallar la información. Miles de documentos podían llegar a acumular polvo en el fondo de los subdirectorios, y la posibilidad de buscarlos por su nombre no bastaría para rescatarlos. Se requeriría, también, buscarlos por su contenido: algo así como preguntar en castellano (en inglés en el original) «¿Qué hay escrito sobre perl y CGI?» y obtener una lista de documentos, que podrían estar en mi disco duro o en cualquier otro punto de la red.

El sistema WAIS se diseñó para hacer posible tal cosa. La arquitectura elegida fue cliente-servidor. Nuestros ordenadores personales actuarían como clientes de servidores WAIS, encargados de mantener y consultar para nosotros bases de datos de conjuntos de documentos, y devolvernos el resultado de las consultas. En este esquema habría que distinguir varios elementos:

El cliente
Permite al usuario: seleccionar la base de datos que desea consultar, remitir la pregunta al servidor, examinar la lista de documentos obtenida y recuperar y visualizar cualquiera de esos documentos.
El servidor
Se encarga de recibir y procesar las consultas de los clientes, buscar en los índices de la base de datos qué documentos son relevantes y remitir la lista al cliente. Después, si éste lo solicita, puede enviarle documentos completos.
El protocolo
Se basó en el estándar NISO Z39.50-1988, con extensiones para el soporte de multimedia (es decir, la posibilidad de emplear información de diversos tipos: texto normal, buzones de correo, imágenes GIF, etc.)
La base de datos
Contiene los documentos originales (textos, gráficos, etc.) junto con índices completos de todas las palabras que aparecen en los documentos. Estos indices posibilitan búsquedas más rápidas y eficaces.

En 1992 había en Internet unos pocos cientos de bases de datos WAIS de acceso público. Se utilizaban cómo índices de la Biblia, de ciertos grupos de news y listas de correo, y de todo tipo de información especializada. Eran un recurso enormente productivo para usuarios profesionales. Si un consultor informático quería aclarar qué tipos de tarjetas Ethernet servían para un Macintosh LC, era más rápido y seguro consultar la base de datos WAIS de Info-mac que telefonear a un proveedor. Cualquier intervención que sobre este tema se hubiese hecho en la lista de correo de Info-mac podía estar en su pantalla en cuestión de segundos, o minutos. El sistema, sin embargo, no resultaba tan atractivo para el usuario ocasional que no tenía nada que preguntar. WAIS es muy educado: no habla si no se le pregunta primero. Esa fué la ventaja de sistemas como el Gopher y el World-Wide Web: de entrada presentan ya información al usuario que aún no sabe lo que quiere (una home page, un mensaje de bienvenida, algunos enlaces…) y de este modo le permiten comenzar a navegar por la red. De ahí el éxito de los nuevos sistemas y la explosión de la Internet a partir de 1993.

Si no puedes vencerlos…

Mosaic primero, y Netscape después, convirtieron el WWW en el interface principal de la Internet. WAIS tuvo que abandonar entonces el sueño dorado de cambiar el mundo él solo, pero al menos ha podido hacerse sitio en un discreto segundo plano. El hecho era que el diseño inicial del WWW no contemplaba la posibilidad de realizar búsquedas, y de eso puede encargarse WAIS. En la entrevista con B. Kahle que citábamos al comienzo del artículo, éste afirma: «Si tenemos éxito, nadie sabrá que está usando WAIS … Sólo estamos interesados en ser la parte de atrás, y la fontanería sólo se nota cuando funciona mal. Así que nuestro objetivo es estar fuera de vista y trabajar.»

Los servidores HTTP incorporan un mecanismo de extensión estándar para comunicarse con aplicaciones externas: el Common Gateway Interface (CGI). Esto les permite incrementar sus capacidades; por ejemplo, integrar WAIS como motor para la realización de búsquedas. Para ello, se requiere:

  1. Mantener actualizada regularmente una base de datos WAIS de los documentos HTML que constituyen el contenido del servidor.
  2. Instalar en el servidor WWW los formularios de búsquedas pertinentes y un programa CGI que recoja las preguntas, las use en una consulta WAIS, y formatee el resultado como una lista de enlaces que lleven a los documentos relevantes.

El propósito de las pasarelas WWW-WAIS no es otro, pues, que traducir las preguntas formuladas por el usuario a un formato que entienda WAIS, y traducir las respuestas de WAIS a un formato de hipertexto válido para el WWW. El usuario teclea «Marcelino Oreja» en un campo de texto, y obtiene una lista de enlaces a los documentos que mencionan estas palabras.

Más allá de las búsquedas

El sistema WAIS estaba pensado para que el usuario de las redes controlara qué información quería. Pero el usuario no sabía lo que quería, o ni siquiera quería nada en especial. El Gopher y el World-Wide Web le dieron precisamente eso, cualquier cosa. Pero a la larga el usuario aprende a seleccionar los recursos y aprovecharlos para su trabajo, y entonces se hace más exigente. WAIS, desde la parte de atrás, puede ayudarle a ganar el control.

Lo cierto es que la utilización actual de WAIS en el WWW suele ser bastante limitada: meros formularios de búsquedas. Pero se intenta ya elaborar otras posibilidades más imaginativas y de gran potencial. Una de las sugerencias iniciales de Brewster Kahle para el interface de WAIS fueron las llamadas «carpetas dinámicas», una especie de cruce entre una consulta a una base de datos y una carpeta del Mac. Una carpeta dinámica estaría asociada a una consulta, y su contenido virtual sería el resultado de la consulta. Este contenido podría actualizarse automáticamente cada vez que cambiase el contenido de la base de datos o se reformulase la consulta. La idea de las carpetas dinámicas nunca llegó a desarrollarse como interface del sistema WAIS. Ahora, su incorporación al WWW tendría aplicaciones muy interesantes. Una serían los filtros de listas de correo y grupos de news, de manera que sólo nos llegaran los mensajes posiblemente interesantes. Otra podría ser el periódico personal, el famoso «Daily Me». El lector definiría sus preferencias: qué secciones le interesan más, qué agencias de noticias, editores o articulistas le merecen más confianza, etc. Usando estos perfiles, WAIS podrá buscar en las bases de datos, seleccionar los contenidos y confeccionar publicaciones a la medida del lector. Con WAIS en la rotativa cortando y pegando, el WWW podrá servirle su periódico cada mañana, o cada media hora, o cuándo él quiera.

Uncategorized

Carles Bellver: Leer y escribir después de los libros

Leer y escribir después de los libros
Carles Bellver
Net Conexión, nº 6 (1996)

Este artículo fue escrito por Carles Bellver para el número 6 de Net Conexión. Se reproduce aquí por su interés y para preservarlo de la previsible desaparición de su ubicación actual.


Argumento

El World-Wide Web es un proyecto de sistema hipertexto distribuido globalmente. Su creciente aprovechamiento como medio de publicación cambia nuestra experiencia de la lectura: cómo y qué se lee, y desde luego tiene que cambiar también la manera de escribir. Las consecuencias son diversas e importantes. La magnitud de estas transformaciones es tal que es improbable que perduren las nociones tradicionales de ‘obra’ y ‘autor’. Los cambios son ya igualmente revolucionarios por lo que respecta a las vías de publicación y el mecanismo de derechos de autor. No podemos saber qué nos deparará el futuro en ninguno de estos campos. Pero, habida cuenta de lo que tenemos ya entre manos, puede que quede poco espacio para lo que ahora llamamos libros.


Contenidos

  • Lo que se lee en el WWW
    • Y además: El texto electrónico y Del texto al hipertexto.
  • Cómo escribir para el WWW
  • ¿Obra? ¿Autor?
  • La democratización de los medios
  • ¿Derechos de autor?

Lo que se lee en el WWW

El lector familiarizado con el WWW está al corriente de las diferencias entre el medio impreso tradicional y el hipertexto. La tecnología de la imprenta ha favorecido una lectura lineal, predeterminada por el autor. Un libro o un artículo de revista, en principio, se leen de cabo a rabo, una página tras otra y un párrafo tras otro. Están escritos de ese modo y es así como se entiende lo que cuentan. Si los leemos de otra manera, por ejemplo saltando de un fragmento a otro hacia adelante y atrás, lo más probable es que captemos sólo parte del sentido, y que lo captemos sólo en parte, en el mejor de los casos.Sin embargo, la lectura fragmentaria, incluso azarosa, es una práctica corriente no sólo del lector accidental, sino también y sobre todo del connaisseur que ya sabe de antemano lo que busca en el texto. Los avances sucesivos de la tecnología del libro: las divisiones en capítulos, las tablas de contenido, los índices analíticos, las notas al pie y las referencias bibliográficas, etc., han tenido como objeto que el lector pueda ir directamente a donde quiere: al capítulo o pasaje del texto que habla del tema que le interesa, o a otros textos vinculados con aquél, por ejemplo.

Son modos de lectura habituales y a menudo indispensables, aunque algo rudimentarios y engorrosos. Una referencia a otro artículo en una página de una enciclopedia nos exige volver a buscar, quizá en otro volumen; una referencia en una nota al pie nos obligará a volver a la biblioteca o a la librería, y puede que tengamos que esperar días o meses a recibir el otro texto.

Las nuevas tecnologías de la información y las comunicaciones han servido precisamente para facilitar todo eso al lector. La disponilidad de textos electrónicos fue el primer paso. Pero el verdadero avance, lo que nos está conduciendo a una revolución, son las redes de hipertextos. La intuición original del equipo del CERN que inició el Proyecto World-Wide Web en 1989 fue que el problema de los vínculos entre elementos de información dispersos se podía abordar mediante un sistema de hipertextos distribuidos en redes de ordenadores. El resultado es lo que hoy en día ofrece el WWW: documentos cuyos enlaces nos pueden conducir a un cierto número de otros documentos y así sucesivamente, y consultas que generan los enlaces dinámicamente según nuestros propios intereses. Es el lector quien decide qué enlaces seguir o qué preguntas hacer. Al menos, eso es lo que el WWW hace posible, aunque, claro, no es oro todo lo que reluce.

El texto electrónico

Los archivos electrónicos han facilitado la búsqueda y el análisis del texto por medio de software, así como la reutilización y la recomposición de los textos. Un simple programa de edición con capacidad de hacer búsquedas nos permite localizar los fragmentos que nos interesaban, copiarlos, e insertarlos en una base de datos, en un artículo, o en un mensaje de correo.El texto electrónico fue el primer paso decisivo. El segundo y más decisivo ha sido el WWW, que añade la posibilidad del acceso a un red global de hipertextos. En el momento actual, esta posibilidad aún está empezando a aprovecharse.

Del texto al hipertexto

En 1971 Michael Hart comprendió que un texto almacenado en un ordenador sería accesible para cualquiera que tuviese acceso a dicho ordenador, e intuyó que esta posibilidad sería cada vez más relevante. Fue el inicio del célebre Proyecto Gutenberg, cuyo objetivo es publicar 10.000 textos en la red antes del año 2000.Se trata de una iniciativa propia de un momento de transición. El texto electrónico ha facilitado la búsqueda y el reciclaje de la información contenida en nuestros archivos. El WWW añade otras dos posibilidades cruciales: acceder a archivos remotos, y conectar unos con otros de diversos modos. De estas dos, sólo la primera ha sido ampliamente aprovechada por las publicaciones actuales. Se ha tratado, por el momento, de sustituir los aviones y las furgonetas: se utiliza la red como medio de distribución, sin variar las formas de lo que se escribe.

Durante años persitirá una diversidad de formas híbridas. Las versiones WWW de la mayor parte de los medios de prensa apenas utilizan el hipertexto para crear menús de sus secciones, pero ni siquiera introducen enlaces en el texto de las noticias. Por ejemplo, AVUI o El Periódico. Pero la evolución podría ser rápida.

Cómo escribir para el WWW

Vannevar Bush explicaba en 1945 en As We May Think que nuestra manera natural de pensar, de considerar un asunto, es por asociación. Captamos conexiones entre las cosas y nuestros pensamientos toman la forma de redes. Esa es la idea original que hay detrás del WWW: que los elementos de información estan vinculados de diversos modos no secuenciales, y que los ordenadores podrían ayudarnos a seguir esos vínculos.Pero las tecnologías tradicionales de la escritura y el papel impreso han impuesto modelos narrativos secuenciales. Poner los pensamientos por escrito ha consistido en ceñirlos a un hilo único, con pequeñas escapatorias momentáneas y precarias: paréntesis, notas al pie, etc. Eso es lo que hemos aprendido al aprender a escribir, y eso es lo que hay que desaprender al escribir hipertextos. Lo que hace falta es un esfuerzo para plasmar mediante enlaces y redes de textos las conexiones entre las cosas. Existen principios básicos, como los delineados por Tim Berners-Lee en su Style Guide for online hypertext.

Es comprensible que no todo lo que hay en el WWW en este momento de transición entre dos culturas sean verdaderos hipertextos. Aún así, con un poco de cuidado se pueden escoger buenos modelos. HotWired o CNN Interactive son publicaciones pensadas para el WWW, y no meros derivados del papel. Los textos se conectan unos con otros, e incluso es posible rastrear todo tipo de vínculos más lejanos por medio de bases de datos. Son, al menos, sugerentes anticipos de las publicaciones del futuro.

¿Obra? ¿Autor?

El WWW transforma nuestra experiencia de la lectura: siguiendo unos enlaces y no otros, podemos elegir un camino entre los textos que se nos presentan, o también podemos seleccionar un subconjunto de documentos de acuerdo con su propio criterio. En el fondo, está cambiando lo que se lee, y eso tiene consecuencias para las nociones comunes de obra y autor. El camino recorrido por el lector, o la selección de enlaces, los determina él mismo. No los determina, desde luego, ninguno de los autores de los documentos originales, ni mucho menos quienes los publicaron. Lo que lee finalmente (su secuencia o red de textos) no existía antes ni volverá quizá a existir. ¿Quién es entonces el autor? Esto puede ser un golpe más para un mito característico del mundo del libro. Nunca estuvo claro cómo un libro que ha sido escrito, recopilado, traducido, anotado, ilustrado y desde luego leído y entendido de diversos modos por diversas personas, podía reclamar en su portada una autoría unitaria y casi metafísica. Pero en cualquier caso en una red de hipertextos el papel del lector es tan activo en la configuración de lo que se lee que la autoría queda cada vez más arrinconada en los fragmentos individuales: cada documento lo ha escrito quien lo ha escrito, pero un conjunto de documentos de procedencias distintas, seleccionados y conectados por el lector, ¿quién lo ha escrito?¿Derechos de autor?

Las facilidades de publicación y reutilización del texto que conlleva el WWW, y la consiguiente dispersión de la obra, debilitan, desde luego, los llamados derechos de autor. No es sorprendente. Se trata de un concepto vinculado a un producto tecnológico concreto: el libro impreso. Antes de la imprenta copiar y repartir un manuscrito ajeno se consideraba un acto de mérito. Contribuía al arduo propósito original, que no era otro que la difusión del saber. Es claro que el primer derecho de un autor es el de publicar sus textos. Desde este punto de vista los presuntos problemas que plantea la red (la facilidad de copiar y reutilizar los textos, etc.) no son tales, sino al contrario, nuevas y poderosas ventajas. La justificación de los derechos de autor se encuentra sólo en un segundo nivel, por más insoslayable que sea. Se trata de la remuneración de los autores: que éstos cobren por su trabajo y puedan seguir subsistiendo y escribiendo. Pero si la red culmina un proceso de socavamiento iniciado por las técnicas reprográficas y convierte el mecanismo de derechos en obsoleto, habrá que idear alternativas. Propuestas como la de Nelson (que el autor cobre unos centavos cada vez que alguien lee sus textos) parecen pensadas a propósito para el WWW.La resistencia más importante a la redefinición de las nociones de autoría, propiedad intelectual y derechos de autor proviene de hecho de las editoriales. Son ellas las que se alimentan de este sistema y temen el progreso. Compran, contratan o usurpan los derechos de un autor a cambio de un reducido porcentaje de las ventas, que por otra parte es difícilmente controlable. Un contrato de edición estándar se plantea como cesión al editor de los derechos de edición, publicación y venta … en exclusiva. Los derechos de negociar la publicación de la obra en otros idiomas, la reproducción total o parcial de la obra por los medios de difusión, impresos, audiovisuales e informáticos, negociar los derechos subsidiarios … : prepublicación, serialización, antología y derechos de selección, ¡son explicitamente cedidos en exclusiva al editor!

O sea, que es el editor quien decide qué y cómo se publica, qué se incluye y qué no en una antología, si se hace una traducción o no, etc. ¡Cómo van a permitir que estos derechos vayan a parar realmente a las manos del autor y el lector! ¡Podría hundirse su negocio! El propósito de facilitar la remuneración del autor, si es que existió nunca, hace tiempo que fue traicionado por la industria editorial. En el boletín de noviembre del Proyecto Gutenberg Michael Hart hacía una broma libertaria. En un postscriptum anunciaba que había añadido a los archivos una obra sobre el copyright: el clásico de Proudhon Qué es la propiedad. La respuesta contundente de Proudhon era que la propiedad es un robo. Y podemos añadir que quienes lo cometen, en el caso de los libros, son los editores.

Los fragmentos enfatizados son citas literales de un contrato de edición.

Uncategorized

La Evolución de la Internet y el World-Wide Web

La Evolución de la Internet y el World-Wide Web

 

Carles Bellver
Jordi Adell
Universitat Jaume I

 

Publicado en Net Conexión 1, 1995. págs. 88-92

 

Desde el año 94 estamos viviendo un auténtico boom de la Internet que ha metido la red en todos los hogares a través de los medios de comunicación. Para muchos de los usuarios llegados en esta última hornada la Internet es el World-Wide Web. La realidad, sin embargo, no es ésta, o al menos no ha sido siempre así. De hecho, las pantallas multimedia y los enlaces entre hipertextos propios del WWW son ingredientes relativamente recientes de la red.

El World-Wide Web, ¿nuevo, o no tan nuevo?

Los orígenes del proyecto World-Wide Web se remontan al año 1989 en el CERN (el laboratorio europeo de física de partículas, en Ginebra). Tim Berners-Lee se enfrentó al problema de grupos de investigadores geográficamente dispersos que deseaban acceder a recursos disponibles en puntos distantes del sistema informático del CERN: bases de datos, resultados experimentales, informes de resultados, listas de direcciones, etc. Su idea fue aprovechar las posibilidades que ofrecían las redes de ordenadores. La interconexión de recursos permitía acceder a ellos desde cualquier punto de las instalaciones, y era concebible que se estableciesen enlaces (links) entre los recursos para saltar rápidamente de unos a otros. Por ejemplo: saltar desde la ficha de un investigador en la base de datos de personal hasta los informes de sus experimentos, y después hacia los datos de sus colaboradores. Para conseguir este propósito se diseñó una arquitectura teórica compleja, que ponía en juego tres estándares ahora bien conocidos: el protocolo HTTP, el lenguaje HTML y los URL. Las primeras realizaciones prácticas se ensayaron en 1991, y pronto se vio que el sistema resultaba también idóneo a otra escala: toda la Internet se podía llegar a ver como una red o una telaraña de recursos a través del World-Wide Web. El NCSA (El National Center for Supercomputing Applications, en Illinois) y el MIT (El Instituto de Tecnología de Massachusetts) decidieron sumarse al proyecto. Sin embargo, aún faltaba algo fundamental: un interface sencillo que explotara las posibilidades del sistema y acercara de verdad la Internet a las ventanas de los usuarios. Por el momento el único modo de acceder al WWW era por medio de terminales de texto que mostraban la información línea tras línea y enumeraban los enlaces al final. El usuario, para seguir uno de estos enlaces, debía teclear su número correspondiente. Una mecánica un tanto rudimentaria que difícilmente ganaba adeptos.

Blanco y negro

A falta de un interface más potente y vistoso, disponible para un mayor número de ordenadores, los sistemas de información funcionaban en la Internet por medio de otro tipo de aplicaciones. Se trataba generalmente de sistemas menos ambiciosos que todavía hoy mantienen su funcionalidad en ámbitos restringidos. Un sistema tradicional consiste en instalar un programa ad-hoc en un potente ordenador central y permitir su ejecución desde terminales remotos por medio de telnet (es el método que todavía emplean la mayoría de bibliotecas). Otra posibilidad es distribuir mensajes y ficheros por medio de listas de correo a las que se suscriben los interesados, o permitir el acceso público por ftp a determinados directorios de un servidor. Un sistema más evolucionado se presentó en el mismo año 1991 en la Universidad de Minnesota: el gopher. La idea inicial era semejante al ftp: un servidor almacena ficheros en directorios públicos y permite recuperarlos a todo el mundo. Las novedades importantes eran la disponibilidad, desde el principio, de interfaces para sistemas Unix, Macintosh y MS DOS (es decir, casi la totalidad de los ordenadores de la Internet) y la posibilidad de distribuir distintos tipos de datos: texto e imágenes, por ejemplo (pero nunca combinados dentro de un mismo fichero). Un universo de información comenzaba a hacerse accesible en la red. El gopher se proyectó como una especie de tablero electrónico para la Universidad de Minnesota, pero se puso a disposición de toda la Internet y muy pronto fue adoptado en todo el mundo por un numero creciente de universidades, centros de investigación, bibliotecas, etc. Vino a ser un simulacro de lo que ocurriría más tarde con el World-Wide Web cuando surgió el Mosaic.Mientras tanto, en España…

En sus inicios, a finales de los 80, la Internet en España se circunscribía al ámbito académico-investigador. El único proveedor de conectividad existente era RedIRIS. Las Universidades eran las únicas instituciones que tenían acceso a la Internet, y, en ellas, no todo el mundo. El abaratamiento de la microinformática, el aumento de la cultura informática entre el profesorado, la instalación de redes locales para compartir recursos, entre otros factores, contribuyeron a una tasa de crecimiento de la Internet en España mayor que la media internacional. No es que fuéramos delante, es que salíamos desde más atrás.La infraestructura de red en aquella época era, vista con ojos actuales, francamente pobre. El backbone estatal de RedIRIS tenía 64 Kbaudios. en sus mejores enlaces, y lo normal era conectar una institución a 9.600 baudios. Menos que lo que ahora tenemos en casa en nuestro modem personal. Pero la Internet no era todavía un mundo de imágenes y colores. Era texto y ficheros informáticos. Los usuarios eran, principalmente, los gurús informáticos de los servicios informáticos de las universidades y centros de investigación. A nadie se le ocurría poner arrobas en su tarjeta, y la gente que tenía correo electrónico solía contestar a todos los mensajes.

sideral_spain.gif

Mapa de interconexión de RedIRIS &copy RedIRIS 1995

En este ambiente de excitación por el descubrimiento de un nuevo mundo, algunos grupos dentro de las Universidades se planteaban ser no sólo consumidores de información, sino también productores y distribuidores. Tras diversas pruebas, en el verano de 1992 la Universitat Jaume I instaló y registró en la Universidad de Minnesota el primer servidor Gopher del Estado Español. Enseguida comenzaron a aparecer nuevos servidores. Al igual que en nuestro caso su objeto era funcionar como CWIS (Campus Wide Information Systems), sistemas de información del Campus, aunque se pudieran consultar desde cualquier parte del mundo. El gopher era sencillo: servía a través de la red textos codificados como ASCII o ISO Latin-1, imágenes, sonidos y cualquier tipo de fichero; no hacia falta transformar la información, bastaba con guardarla como “sólo texto”. Los menús jerárquicos reproducían la estructura de directorios creada en el servidor. Y, encima, todo era gratis. El gopher fue la estrella de la Internet durante el 92 y buena parte del 93.

Un mosaico de posibilidades

Pese a que todas las ideas matriz del WWW ya habían sido formuladas varios años atrás, en 1993 se dio el paso decisivo para que este sistema revolucionara la Internet. El NCSA de la Universidad de Illinois en Urbana-Champaign desarrolló el primer cliente gráfico para el WWW. Mosaic representó una auténtica convulsión en la forma en que los usuarios se relacionaban con los recursos y servicios de la red. Por primera vez podían integrarse texto y gráficos en una página. La Internet tenía color y sonido, no sólo textos. Ahora ya no era necesario usar programas distintos para transferir ficheros o ver texto e imágenes en línea. Además Mosaic se integraba perfectamente con un amplio abanico de aplicaciones auxiliares que permitían oír sonidos, ver fragmentos de video, mantener conexiones on line, etc.Frente al Gopher, que no requería tratar la información, el WWW complica la vida de los proveedores de información al tiempo que facilita la de los usuarios. El interface hipertextual posee una enorme potencia para estructurar corpus amplios y complejos de información frente al sencillo sistema de árboles de menús del Gopher. El lenguaje en el que deben escribirse los textos en el Web (para definir formatos o enlaces, introducir imágenes, etc.), el HyperText Markup Language (HTML), ofrece numerosas posibilidades, pero también encarece la elaboración de la información. Frente al mero texto del Gopher (y las imágenes o sonidos como ficheros independientes), el Web contrapone mayor riqueza y más trabajo. Diseñar y escribir hipertextos en HTML es laborioso. Aún contando con la ayuda de numerosas herramientas de software, resulta imprescindible conocer la sintaxis del lenguaje para no desperdiciar todo su potencial. En ningún caso basta con un “Save as…”

La primera versión de Mosaic funcionaba sólo bajo entorno Unix Window, pero estaban anunciadas las versiones para Macintosh y Windows. Fue entonces cuando, desde el Departamento de Educación de la Universitat Jaume I, nos decidimos a experimentar con el WWW. Sabíamos de ensayos en este sentido en otras universidades españolas, pero tras unos meses de funcionamiento en pruebas registramos en el CERN nuestro servidor y, nuevamente, fue el primero del Estado.

Perdidos en la Internet

Una atalaya privilegiada para contemplar la evolución de la Internet en España ha sido el mapa de servicios. El mapa sensible (ISMAP) de la Internet en España es, sin duda, el recurso más conocido de los que ofrece el servidor WWW de la Universitat Jaume I y el que más tráfico genera (<URL:http://www.uji.es/spain_www.html>). Por ejemplo, la semana del 18 al 24 de septiembre el mapa de España fue consultado 7.605 veces, el de Madrid 2.306 y el de Cataluña 2.095. Esa misma semana nuestro servidor registró 133.201 transacciones, de las cuales sólo un 28% correspondieron a nodos españoles.

Los mapas (o el mapa, porque al principio sólo era uno) comenzaron como una forma de sacar partido a una de las características más espectaculares del WWW: la posibilidad de convertir en un enlace hipertextual no sólo una palabra o frase, sino también una zona de un gráfico. Un ISMAP no es más que una imagen gráfica con zonas vinculadas a distintos URL. Cuando el usuario “pincha” con el ratón sobre la imagen su cliente comunica las coordenadas del clic al servidor, y este se encarga de resolver a qué URL corresponden y efectuar la conexión.

El diseño de los mapas ha tenido que evolucionar a lo largo del tiempo como resultado de la progresión de la Internet en España. En cada cambio se ha intentado incluir la máxima cantidad de información en el mínimo espacio. La razón es evidente: cuando menor sea el tamaño de la imagen, menos ocupa en KBytes y menos se tarda en recuperar el fichero por la red. También se optó por separar el mapa inicial, en el que en 1993 cabían perfectamente todos los recursos, en un mapa por comunidad autónoma. Tras el éxito de Mosaic, su sucesor Netscape, y la explosión del World-Wide Web, hoy los mapas incluyen aproximadamente 500 recursos y el ritmo de crecimiento es de más de 25 por semana. Pero el cambio es más que cuantitativo: una proporción creciente de las novedades procede de fuera del círculo universitario. Empresas del sector informático, proveedores de conectividad, asociaciones culturales, la prensa diaria… Quizá las expectativas que en ocasiones se han querido difundir entre el gran público (la Internet para todos y todo en la Internet) no eran tan desorbitadas. Quizá.


Recuadros:

HTTP HTML URL

La facilidad de uso del World-Wide Web descansa sobre la base de una compleja arquitectura de estándares.HTTP HyperText Transfer Protocol. Un protocolo de comunicaciones para transferir los documentos de un punto a otro de la red. La integración del estándar MIME (Multipurpose Internet Mail Extensions) permite enviar todo tipo de ficheros que incluyan texto, imágenes, voz, etc.

HTML El HyperText Markup Language. Un lenguaje para estructurar el contenido de los documentos por medio de marcas que se insertan en el texto. Estas marcas posibilitan la definición de encabezamientos, formatos, figuras o enlaces con otros documentos. El HTML cumple las normas del estándar ISO SGML (Standard Generalized Markup Language).

URL Los Uniform Resource Locators. Una notación para hacer referencia a cualquier recurso presente en la red. Los enlaces apuntan a otros documentos por medio de sus URL.

Los protocolos de la red

Desde antes del HTTP se han venido utilizando diversos protocolos en la Internet. El World-Wide Web está sirviendo para integrarlos.

Telnet Protocolo que permite la utilización remota de una aplicación desde otro ordenador conectado a la red.

SMTP El Simple Mail Transfer Protocol. Es el protocolo utilizado por el correo electrónico. Se pensó para transmitir texto ASCII, pero las extensiones MIME (Multipurpose Internet Mail Extensions) han hecho posible intercambiar cualquier tipo de información: HTML, imágenes, etc.

FTP El File Transfer Protocol. Protocolo de transferencia de ficheros.

NNTP Network News Transfer Protocol. Protocolo de comunicación del sistema de noticias de la red (Usenet News).

Gopher Utilizado por los servidores gopher.

WAIS Wide Area Information Systems. Protocolo para la consulta de bases de datos de textos.

RedIRIS

RedIRIS fue creada en el año 1988 por el Plan Nacional de Investigación y Desarrollo con el objetivo de impulsar la interconexión de recursos informáticos entre Universidades y centros de investigación públicos. Cuenta en la actualidad con más de 170 organizaciones afiliadas. Hasta 1993 fue gestionada por Fundesco (la Fundación para el Desarrollo de la Función Social de las Comunicaciones). Desde enero de 1994 está gestionada por el Consejo Superior de Investigaciones Científicas (CSIC).RedIRIS ofrece a sus afiliados conexión a la Internet y numerosos servicios como mensajería electrónica, directorio, News, información (servidores FTP, Archie, Gopher y WWW) y experimenta con los del futuro (ATM y MBONE), ayuda a los usuarios en el uso de la red (infoiris), etc. Además, RedIRIS es registro delegado de Internet en España y NOC (Network Operation Center) de la red académica española.

Servicios de información:

Edición de HTML

Un documento HTML contiene texto ASCII o ISO Latin-1 con marcas inscritas que siguen una sintaxis estándar. Por ello, cualquier editor o procesador de texto sirven para escribir HTML. Sin embargo, teclear las marcas resulta laborioso y es proclive a errores. Resulta pues más razonable utilizar alguna herramienta de software que automatice el proceso.

Cuándo se instalaban los primeros servidores WWW en España apenas existían herramientas de este tipo. Carles Bellver desarrolló en la Universitat Jaume I unas extensiones para el editor de texto BBEdit (el más popular en entornos Macintosh) que facilitaban la creación de HTML:

<http://www.uji.es/bbedit-html-extensions.html>

El uso de editores con extensiones HTML es una de las tendencias en cuanto a producción de documentos para el WWW. Otras son la conversión automática desde otros formatos y las herramientas gráficas seudo WYSIWYG.

Gráfico de la evolución del tráfico mundial por protocolo
Internet Society

trafico.gif