RSS
Blog
Abierto, simple, generativo: por qué la Web es la aplicación de Internet dominante

Abierto, simple, generativo: por qué la Web es la aplicación de Internet dominante

17 de agosto de 2021 - por Andrew Oram

Todo en el 2021 Aniversario abierto La celebración se reúne en la Web Abierta, el tema del artículo de este mes. De hecho, he tomado las palabras Open Web casi como una solicitud de asociación libre. Si bien todos aprecian la gran cantidad de información gratuita en la Web, los lectores de este artículo pueden sorprenderse de dónde nos lleva la idea de la Web Abierta.

Hipertexto, a la manera de Internet

Comencemos por los albores de la World Wide Web. Los dos estándares en los que se basaba originalmente eran HTML y HTTP.

El "HT" que comparten esas abreviaturas significa hipertexto, un término famoso inventado por el filósofo visionario Ted Nelson alrededor de 1965. Como término algo embriagador y grandioso que coincide con la ambición y personalidad expansivas de Nelson, el hipertexto reconoce que los pensamientos nunca se limitan a documentos individuales. Cada documento se refiere inevitablemente y depende de la comprensión de otras fuentes de información. Esto siempre ha sido así, pero la web hace explícitas las relaciones a través de enlaces.

Un celo por representar relaciones fue y sigue siendo el objetivo final de Tim Berners-Lee, inventor de la web. Solo echa un vistazo a su original propuesta a su gerencia,la Organización Europea para la Investigación Nuclear (CERN en su abreviatura francesa). La propuesta está unida en todo momento por una preocupación por exponer y organizar las relaciones entre pensamientos y entre cosas. La misma obsesión ha permanecido durante décadas en las propuestas de Berners-Lee para una Web semántica (2000) y Datos vinculados (2006).

La grandiosidad en la escala de Nelson y Berners-Lee tampoco es totalmente abjurada por el CERN, que presenta al visitante que visita su sitio web por primera vez con la pregunta: "¿Cuál es la naturaleza de nuestro universo?"

Así que la idea del hipertexto ha existido por un tiempo, pero ni la gran visión de Nelson (el mortinato Xanadu) ni experimentos posteriores como el de Apple Computer HyperCard cogido en. Diré un poco sobre cada uno de estos proyectos para contrastarlos con los rasgos que llevaron a la World Wide Web por un camino tan diferente.

Primero, tanto Xanadu como HyperCard eran propietarios. Esto limita las posibilidades de que las personas ajenas a las organizaciones que desarrollan cada tecnología le agreguen y construyan sus propias visiones sobre ella. La web, por el contrario, debido a que era abierta, compartía la asombrosa capacidad de ciertas tecnologías informáticas para generar una enorme innovación. En el término utilizado por el profesor de derecho Jonathan Zittrain, la web es generativo.

La Hypercard de Apples estaba hambrienta de recursos, es cierto, pero encontré poco valor en ella en primer lugar. El diseño ofrecía capacidades limitadas, probablemente debido a las pequeñas memorias de la computadora y los procesadores lentos de la década de 1980. Cada contenido tenía que caber en una pequeña tarjeta. La mayor limitación era fundamental: cada juego de tarjetas era autónomo y no se podía vincular a recursos externos. Se dejó a Berners-Lee dar este gran salto en el poder del hipertexto a través de uno de sus mayores inventos: la URL. Estas cadenas sin pretensiones aprovechan Internet y el sistema de nombres de dominio, y Berners-Lee ideó las formas de URL para conectarse a contenido fuera de la web, una táctica valiosa para hacerse un hueco en un mar de otros protocolos.

Xanadu era complejo. Esta complejidad surgió de la mejor de las intenciones: Nelson insistió en crear enlaces bidireccionales, lo que podría conducir a todo tipo de beneficios. Con los enlaces bidireccionales, puede seguir un sitio que se enlace a usted. Los sistemas de pago podrían habilitarse, algo que muchos usuarios de Internet desean fervientemente por ahora. Habría formas de preservar los sitios cuyos equipos de alojamiento no funcionan, otro problema grave que siempre se cierne sobre Internet, como señalo en mi artículo "Conocimiento abierto, Internet Archive y la historia de todo."

Como dijo Nelson en una charla a la que asistí en 2008, "¡Berners-Lee tomó el camino más fácil!" La web tiene enlaces unidireccionales y, por lo tanto, sufre todos los lapsos antes mencionados que, según Nelson, no habrían afectado a Xanadu. Para recordar cuán consciente fue esta elección, volvamos a la de Berners-Lee. propuesta, mencionado anteriormente:

"Los debates sobre hipertexto a veces han abordado el problema de la aplicación del derecho de autor y la seguridad de los datos. Estos son de importancia secundaria en el CERN, donde el intercambio de información es aún más importante que el secreto. Se podrían diseñar sistemas de autorización y contabilidad para el hipertexto que sean muy sofisticados, pero no se proponen aquí ".

Se han escrito resúmenes, virtuales y reales, sobre las ramificaciones de la priorización de Berners-Lee. Pero el veredicto de la historia es bastante definitivo: la salida fácil es la correcta. Al igual que la Internet más grande, la web no intenta rastrear los recursos perdidos ni asignar valor al tráfico. Su trabajo es simplemente obtener información desde el origen hasta el destino.

Abierto, simple, generativo: estos rasgos permitieron que la web tuviera éxito donde otros sistemas lo habían intentado y habían fallado. Los estándares web son debatidos, respaldados y mantenidos por la organización sin fines de lucro. Consorcio World Wide Web (W3C).

Berners-Lee también apareció en un buen momento de la historia de la informática. Inventó la web en 1989 y tomó impulso un par de años después. Este fue el momento en que el público en general descubrió Internet, ese extraño proyecto de investigación utilizado solo por sitios de defensa, investigadores científicos y algunas empresas relacionadas. (La mayoría de los puntos de acceso a Internet dirigido por el gobierno de los Estados Unidos hasta 1994.)

La gente había estado utilizando durante mucho tiempo foros de discusión que no estaban en Internet y formas torpes de transferir archivos. Gran parte del tráfico ahora se trasladó a la web. Y esto conduce a la siguiente etapa de la generatividad de la web.

El puerto 80 encuentra nuevos usos

Necesitamos un poco de experiencia técnica para comprender qué sucedió a continuación en la web.

La mayoría de las computadoras ejecutan varios programas. Cuando una computadora recibe tráfico de red, determina a qué programa enviarlo, gracias a un número arbitrario llamado puerto que se adjunta a cada paquete. Una persona puede estar hablando con amigos usando el chat de retransmisión de Internet (puerto TCP 6667), mientras recibe correo (puerto TCP 25), etc. La web recibió el puerto TCP 80.

Mientras tanto, para evitar ataques malintencionados, los administradores de sistemas y redes suelen imponer restricciones firmes a los puertos en los que aceptan tráfico. A mediados de la década de 1990, con el crecimiento de Internet y la creación de conexiones siempre activas de alta velocidad, las restricciones en los puertos obstaculizaron la introducción de nuevos servicios. La gente oiría hablar de algún servicio maravilloso que podría mejorar su productividad, pero el administrador de la red no confiaba en el servicio o estaba demasiado ocupado para reconfigurar la red para que pudiera enviar y recibir tráfico en el nuevo puerto. Internet estaba experimentando uno de los mayores auges conocidos por cualquier industria en la historia, y los innovadores se vieron obstaculizados por esta extraña camisa de fuerza tecnológica.

Cada vez más, los innovadores miraban con nostalgia el único puerto que siempre estaba garantizado para estar abierto: el puerto 80, gracias a la adoración universal por la web. Entonces, los desarrolladores tomaron una decisión trascendental: violarían la tradición de proporcionar un número de puerto único para su aplicación y enviarían todo a través de la Web. El navegador web del usuario recibiría y procesaría el tráfico. (Pongo este movimiento en un contexto más amplio en una memoria, cerca del final de la sección "Peer-to-peer (principios de la década de 2000) y la aparición de contenido generado por el usuario".)

Aunque los administradores de red lo criticaron con el término censurador "contaminación del puerto 80", el movimiento hacia los servicios web tuvo éxito más allá de sus sueños más locos y trajo consigo el software como servicio. Muchas personas pasan todo el día en su navegador, moviéndose entre Facebook, Google, Salesforce, etc., con todo el tráfico moviéndose a través del puerto 80.

El protocolo HTTP de Berners-Lee ahora ha ido mucho más allá de la web. Es el protocolo de comunicaciones elegido para la arquitectura poco acoplada conocida como microservicios. Esta historia está cubierta en mi artículo. "Cómo la API RESTful se convirtió en la puerta de entrada al mundo". Esa es la red generativa en movimiento.

Alojamiento web y democratización de Internet

La simplicidad de la web impulsó la adopción temprana. Berners-Lee basó HTTP en otros protocolos estándar, haciéndolo reconocible para los administradores. Mientras tanto, basó el lenguaje para crear páginas web, HTML, en un estándar más antiguo llamado SGML, pero lo hizo muy fácil de aprender.

Además, los nuevos usuarios de HTML podrían aprender a hacer cosas nuevas e interesantes con él simplemente viendo el código fuente de la página web en su navegador. (Estoy en deuda con Tim O'Reilly, quien fue mi gerente durante muchos años, por señalar esto). Esta transparencia también se aplicó a los lenguajes de formato enriquecido (CSS) y páginas web dinámicas (JavaScript). Finalmente, CSS y JavaScript se trasladaron a archivos separados y los desarrolladores comenzaron a reducir o "minificar" el código para ahorrar tiempo de descarga. Aún así, los usuarios pueden buscar en los archivos para estudiar cómo crear páginas web. La gente deja de anotar sus ideas en diarios que mete en los cajones del escritorio y publica sus ideas en la web.

Siempre que Internet funcionara en servidores corporativos, los administradores profesionales que administraban el hardware y el software podían configurar un servidor web como cualquier otro servicio de Internet. Podían albergar algunas páginas web, así como la base de datos que sustentaba el contenido dinámico. (Ver de nuevo mi artículo "Cómo la API RESTful se convirtió en la puerta de entrada al mundo" para obtener un historial de contenido dinámico). Todo el mundo pasó por el administrador para crear una nueva página web.

Los requisitos cambiaron a principios de la década de 2000 cuando millones de personas comenzaron a escribir blogs, publicar comentarios y, finalmente, subir fotos y videos. Tim O'Reilly acuñó el término "Web 2.0" para esta explosión de contribuciones individuales. La generación de contenido se estaba separando de la gestión del servidor web. La necesidad se cubrió con sistemas de gestión de contenido (CMS) y alojamiento web. Miles de servicios ahora ayudan a las personas a crear sus propias páginas web, proporcionando herramientas CMS, bases de datos, copias de seguridad y tiempo de actividad garantizado. Dos de los CMS más populares, WordPress y Drupal, son de código abierto.

La web abierta depende del hosting. Pero cedes algo de control cuando usas un servicio de alojamiento. Muchas operaciones web sofisticadas utilizan partes del protocolo HTTP que requieren control sobre el servidor web. Un servicio de alojamiento también puede eliminar sitios que considere inaceptables. (Por otro lado, una eliminación es menos dolorosa que alojar el sitio usted mismo y ser demandado o procesado). El software que facilita la construcción de un sitio web atractivo también puede ser limitado o tener errores.

La ironía de la Web 2.0 es que las personas pueden generar y difundir contenido fácilmente (a veces acumulando ganancias de cientos de miles de dólares) debido a la simplicidad de las tecnologías, pero al mismo tiempo ceden el control a las plataformas de redes sociales y otros sitios.

Muchos visionarios están tratando de descentralizar los servicios de Internet para que se parezcan más a los primeros días, cuando la mayoría de los sitios de Internet alojaban sus propios servidores. Existen varias alternativas a los servicios centralizados, como Farfullar para chat (estandarizado ahora como el Protocolo extensible de mensajería y presencia o XMPP) y Diáspora para las redes sociales. Propuestas para servicios descentralizados basados ​​en blockchains y criptomonedas revivir el objetivo de Ted Nelson de una Internet donde las personas puedan cobrar micropagos.

La accesibilidad sigue siendo un problema para muchos

Los recursos de la web deberían estar disponibles para todos, pero muchos factores frenan el acceso: falta de conexiones a Internet, censura y diseño web no inclusivo. El artículo termina discutiendo estos temas.

Falta de conexiones a Internet

Durante años, la industria informática y los principales medios de comunicación han dado por sentado el acceso permanente a Internet de alta velocidad. Las personas que trabajan en esos campos tienen acceso a Internet, y todos sus amigos y vecinos también. (Irónicamente, estoy escribiendo en este momento durante una tormenta que ha cortado mi acceso a Internet, ayudándome a recordar cuán privilegiada soy por lo general).

Las personas que generalmente no tenían acceso tenían preocupaciones mucho mayores (falta de alimentos, trabajo, atención médica o seguridad física) y no hicieron del acceso universal a Internet un grito de guerra importante. Después de que los cierres de COVID-19 revelaron que a los niños se les negaba la educación y que los adultos estaban privados de información crítica debido al acceso limitado a Internet, algunos gobiernos, aunque se recuperaban de la pandemia, comenzaron a buscar soluciones.

Anteriormente, algunos gobiernos y ONG habían encontrado formas de proporcionar información a través de otros medios. El artículo anterior de esta serie Open Anniversary mencionaba Sistema operativo sin fin, que distribuye computadoras cargadas con recursos como páginas de Wikipedia. Aunque el acceso a Internet es más rico, las copias impresas y las computadoras aún pueden proporcionar recursos educativos que se necesitan desesperadamente.

Censura

La censura es una denegación más selectiva del acceso a Internet. No hay duda de que los peligros acechan en Internet. Pornografía infantil, reclutamiento de terroristas, comercio de sustancias ilegales e información robada: todo continúa. Los censores se enfocan en estos problemas, pero también toman medidas enérgicas contra el contenido que consideran política o socialmente inaceptable. Debido a que la censura requiere un control central sobre las puertas de enlace a través de las cuales fluye todo el contenido de Internet, la censura generalmente se encuentra en sociedades altamente centralizadas con gobiernos centrales fuertes.

Debido a que todos conocemos algún contenido de Internet que desearíamos que no estuviera allí, no discutiré los problemas morales o políticos detrás de la censura. El tema de esta sección es qué hace la gente para evitarlo. El principal remedio que ha surgido se llama red de enrutamiento de cebolla. TOR, que originalmente fue financiada en parte por la Marina de los EE. UU., Es la más conocida de esas redes en la actualidad.

En una red de enrutamiento de cebolla, las personas que se oponen a la censura se ofrecen como voluntarios para alojar puntos de acceso. Si quiero comunicarme con un investigador de derechos humanos o (con menos simpatía) quiero comprar municiones en línea, descargo una lista de puntos de acceso. Luego envío mi mensaje a uno de los puntos de acceso.

El punto de acceso tiene una lista de otros nodos en la red de enrutamiento de cebolla y reenvía mi solicitud a uno elegido al azar. El segundo nodo luego enruta mi solicitud a un tercer nodo, y así sucesivamente. Como una cebolla, la red anti-censura tiene muchas capas para dificultar el rastreo de quién envió un mensaje a quién. Los nodos finales de la red enrutan mi solicitud a mi destinatario.

Debido a que las listas de puntos de acceso son públicas, los censores también las conocen. Sería posible bloquearlos a todos, y los censores a veces lo intentan. Pero los puntos de acceso son numerosos, cambian con regularidad y, a menudo, sirven para otros fines además del enrutamiento a través de la red. Los nodos sofisticados introducen retrasos aleatorios entre la recepción de un mensaje y su transmisión, para hacer más difícil para un observador fisgón darse cuenta de que los dos mensajes están relacionados.

Volver a mi solicitud entregada con éxito. Alguna información debe almacenarse en algún lugar para permitir que la respuesta vuelva a mí, y esa es la característica de las redes de enrutamiento de cebolla que es más vulnerable a los ataques. Al igual que otros tipos de ciberseguridad, los diseñadores de redes de enrutamiento de cebolla están en constante competencia con los atacantes.

Diseño web no inclusivo

La última barrera que discutiré en este artículo son los diseños de páginas web que requieren que un visitante tenga buena vista, buen oído, mano firme o algún otro rasgo del que carecen partes de la población. Cuando los defensores de las personas con capacidades diferentes hablan de "accesibilidad", se refieren a diseños que no presentan dificultades para nadie, o (porque eso es difícil de lograr) ofrecen soluciones para las personas con dificultades. Algunos ejemplos de funciones de accesibilidad incluyen:

  • Complementar diferentes colores con otras señales visuales o textuales de las diferencias en una página web.
  • Permitir que el espectador amplíe el texto
  • Ofreciendo una descripción textual para cada imagen, para que una persona que usa un lector de pantalla obtenga la información más importante
  • Agregar texto con subtítulos a videos
  • Permitir a los visitantes seleccionar elementos de una pantalla sin tener que apuntar y hacer clic
  • Usar elementos de diseño familiares o estándar, para que los visitantes puedan aplicar los conocimientos que han aprendido de otros sitios.

Existen muchas herramientas en línea para ayudar a los diseñadores a verificar la accesibilidad. En los Estados Unidos, los sitios web deben hacer lo que sea necesario para ajustarse de las personas acusadas injustamente llamadas Ley Estadounidense con Discapacidades. Muchas empresas también intentan exigir accesibilidad en todos sus sitios web. Pero la mayoría de los diseñadores no entienden dónde sus diseños pueden excluir a los visitantes, y las pautas a menudo no se siguen.

Conclusión

La web, que une al mundo y está repleta de información, ha creado uno de los entornos más abiertos que la humanidad haya conocido. Ciertamente, sus lapsos y debilidades son dolorosamente visibles. Simon St. Laurent, un experto en contenido y programador web que revisó este artículo, se queja: "La Web en gran medida no logró realizar la visión de lectura / escritura con la que comenzó Tim Berners-Lee, y en su lugar tenemos silos interminables con varios grados de apertura. " Pero aunque deberíamos abordar los problemas de la web, su crítica subraya los asombrosos logros de la web. De hecho, algunos autores de ciencia ficción han sugerido que Internet sobrevivirá a la civilización misma. Usemos la web para asegurarnos de mantener ambos.
 

<< Leer el post anterior de esta serie | Lea la próxima publicación de esta serie >>

Sobre Andrew Oram:

Andrew Oram

Andy es escritor y editor en el campo de la informática. Sus proyectos editoriales en O'Reilly Media iban desde una guía legal que cubría la propiedad intelectual hasta una novela gráfica sobre hackers adolescentes. Andy también escribe a menudo sobre tecnologías de la información para la salud, sobre cuestiones de política relacionadas con Internet y sobre tendencias que afectan la innovación técnica y sus efectos en la sociedad. Las publicaciones impresas donde ha aparecido su trabajo incluyen The Economist, Communications of the ACM, Copyright World, Journal of Information Technology & Politics, Vanguardia Dossier e Internet Law and Business. Las conferencias en las que ha presentado charlas incluyen la Convención de Código Abierto de O'Reilly, FISL (Brasil), FOSDEM (Bruselas), DebConf y LibrePlanet. Andy participa en la organización de políticas de la Association for Computing Machinery, USTPC.