lunes, 12 de noviembre de 2007

Archie



Sistema para la localización de información sobre archivos y directorios, muy unido al servicio FTP. Es como una gran base de datos donde se encuentra registrada una gran cantidad de nombres de archivos y los servidores FTP. Al igual que gopher, ha sido reemplazado por la WWW. Archie fue el primer motor de búsqueda que se ha inventado, diseñado para indexar archivos FTP, permitiendo a la gente encontrar archivos específicos. La implementación original se escribió en 1990 por Alan Emtage, Bill Heelan, y Peter J. Deutsch, entonces estudiantes en la Universidad McGill de Montreal. Las primeras versiones de archie simplemente contactaban una lista de archivos FTP en bases regulares ( contactando cada una apenas una vez cada mes, para no gastar muchos recursos en los servidores remotos) y requiriendo un listado. Estos listados eran almacenados en ficheros locales para ser buscados usando el comando grep de UNIX. Más tarde, se desarrollaron front- y back-ends más eficaces, y este sistema pasó de ser una herramienta local a un recurso para toda la red, a un servicio popular accesible desde múltiples sitios de Internet. A tales servidores se podía acceder de muchas formas: usando un cliente local (como archie o xarchie); haciendo telnet al servidor directamente, enviando queries por correo electrónico y más tarde con interfaces World Wide Web.El nombre archie viene de la palabra inglesa "archive", pero también está asociado con la serie de tebeos americana “Archie”. Esta no era la intención original, pero fue lo que actuó como inspiración para los nombres de Jughead (oficialmente acrónimo de Jonzy's Universal Gopher Hierarchy Excavation And Display)y Verónica (acrónimo de "Very Easy Rodent-Oriented Net-wide Index to Computer Archives" ), ambos sistemas de búsqueda para del protocolo Gopher. Con la aparición del World Wide Web la búsqueda de archivos se simplificó mucho, y actualmente hay muy pocos servidores activos. Se puede encontrar un gateway en Polonia y Japón.

Usenet



Usenet es el acrónimo de Users Network (Red de usuarios), consistente en un sistema global de discusión en Internet, que evoluciona de las redes UUCP. Fue creado por Tom Truscott y Jim Ellis, estudiantes de la Universidad de Duke, en 1979. Los usuarios pueden leer o enviar mensajes (denominados artículos) a distintos grupos de noticias ordenados de forma jerárquica. El medio se sostiene gracias a un gran número de servidores distribuidos y actualizados mundialmente, que guardan y transmiten los mensajes.

Usenet es uno de los sistemas más antiguos de comunicaciones entre redes de ordenadores, aún en uso actualmente. Permite a un usuario intercambiar opiniones y experiencias…con otras personas interesadas en el mismo tema específico que él. Comenzó a funcionar en 1980, originalmente concebida como un “ARPANET para pobres” empleando UUCP para ofrecer mail y transferencia de archivos, así como noticias sobre el nuevo software desarrollado. El sistema, desarrollado por la Universidad del Norte de Carolina en Chapel Hill y la Universidad de Duke, fue denominado Usenet con la esperanza de que la organización USENIX tuviera un papel activo en ella.

Los usuarios pueden leer o enviar mensajes a distintos grupos de noticias ordenados de forma jerárquica. Cuando un usuario se suscribe a un grupo de noticias, el software cliente de noticias mantiene el hilo de los artículos que ha leído ese usuario. En muchos grupos de noticias, la mayoría de los artículos son respuestas a algún otro. El conjunto de artículos que puede ser rastreados hasta un artículo inicial se denomina hilo. Las últimas versiones muestran los artículos ordenados en hilos y subhilos, para facilitar la búsqueda de discusiones en un grupo de noticias.

La asignación de jerarquías y subgrupos en ciertos casos es anárquica. Inicialmente tan sólo estaban definidas unas pocas jerarquías de nivel superior como comp.*, y posteriormente aparecieron otras libremente como alt.*. Es prácticamente imposible determinar el número total de grupos, ya que cada servidor puede definir los suyos propios (algo que suele suceder con frecuencia).

Usenet gira en torno al artículo, cada uno de los cuales puede ser publicado en uno o más grupos. Los artículos son los datos que se actualizan y propagan mundialmente a través de esta red. Los artículos tienen un formato de texto simple con algunas otras restricciones, y son similares a un mensaje de correo electrónico, salvo por sus cabeceras.

Los artículos no suelen emplear la extensión MIME, y contienen texto sin formato. Cada servidor de news establece el tiempo de vida de cada artículo en función de sus cabeceras, su tamaño, fecha de publicación, etc. En ciertas ocasiones se utilizan los artículos para incluir archivos binarios codificados en formato de texto, utilizando algoritmos como UUEncode, Base64, o recientemente yEncode. De hecho, existen grupos dedicados exclusivamente al envío de mensajes con archivos binarios codificados, como la rama alt.binaries.*, llegando a ser el origen de una gran cantidad de material ilegal.

El gran número de usuarios y grupos, la escasez de recursos requeridos, la velocidad, el anonimato, su libre acceso y su descentralización, entre otros, hacen de Usenet la mayor red de intercambio de información y debate del mundo.

Usenet tiene también una importancia cultural significativa en el mundo reticulado, habiendo dado lugar al nacimiento, o popularizado, conceptos ampliamente reconocidos, como "FAQ" y "spam".

WAIS



WAIS (acrónimo de Wide Area Information Servers) es un sistema de búsqueda de texto distribuido que usa el protocolo estándar cliente-servidor ANSI Z39.50 para buscar bases de datos indexadas en ordenadores remotos. WAIS permite a los usuarios descubrir la información y resuelve el acceso a la información en la red sin tener en cuenta su ubicación física. El protocolo y los servidores WAIS fueron primeramente evangelizados por Thinking Machines Corporation, una empresa de supercomputadoras de Cambridge fundada en 1982 por W. Daniel "Danny" Hillis y Sheryl Handler para convertir la tesis doctoral de Hillis en el MIT sobre arquitecturas de computación en paralelo masiva en un producto comercial llamado Connection Machine. Connection Machine era la alternativa a la arquitectura de Neumann. La CM-1 originalmente concevida en el MIT, era una agrupación de miles de microprocesadores o CPU´s, cada uno con su propia RAM, archivando datos paralelamente con SIMD (Single Instruction, Multiple Data). Primeramente se pensó usar esta supercomputadora para aplicaciones en inteligencia artificial y procesamiento de símbolos, pero luego encontró un gran éxito en el campo de la ciencia computacional. Danny Hillis y Sheryl Handler fundaron Thinking Machines en Waltham, Massachusetts (más tarde se cambiaron a Cambridge, Massachusetts) en 1983 y establecieron un equipo para desarrollar la CM-1 y después la CM-2, las que, dependiendo de la configuración, tenía unos 65,536 procesadores. Los procesadores individuales eran extremadamente simples ya que procesaban un bit cada vez. La CM-2, que se lanzó en 1987, añadía Weitek 3132 floating-point co-procesadores numéricos al sistema, con 32 de los procesadores simples originales compartiendo cada procesador numérico. También se produjeron dos variantes posteriores más a la CM-2, la pequeña CM-2ª con procesadores single-bit 4096 o 8192, y la rápida CM-200. Thinking Machines presentó un servidor WAIS que corría bajo sus supercomputadoras CM-1 y CM-5. Los clientes WAIS eran para varios sistemas operativos incluyendo Windows, Macintosh y Unix. Con el anuncio del World Wide Web a principios de 1990 y la bancarrota de Thinking Machines en el 95, la primitiva interface del sistema WAIS rápidamente cedió su lugar a los motores de búsqueda basados en Web. En el Internet actual ya no hay servidores WAIS activos. Uno de los desarrolladores de WAIS era Brewster Kahle, quien abandonó Thinking Machines para fundar WAIS Inc en Menlo Park, California con Bruce Gilliat. Tras vender WAIS a AOL en mayo de 1995 por $15 millones, Kahle and Gilliat fundaron Internet Archive (IA) y más tarde la empresa Alexa Internet.

Gopher



Gopher es un servicio de Internet consistente en el acceso a la información a través de menús. La información se organiza de forma arborescente: sólo los nodos contienen menús de acceso a otros menús o a hojas, mientras que las hojas contienen simplemente información textual. En cierto modo es un predecesor de la Web, aunque sólo se permiten enlaces desde nodos-menús hasta otros nodos-menús o a hojas, y las hojas no tienen ningún tipo de hiperenlaces.

El protocolo Gopher fue presentado en 1991 por la Universidad de Minnesota, y su nombre puede proceder tanto de la mascota de la universidad (un gopher, una ardilla de tierra), como del coloquial go-fer, ir-por o "ir a por/buscar información".

Aunque los servidores gopher que quedan son testimoniales, el navegador Mozilla todavía tiene soporte para el mismo. El Internet Explorer lo eliminó en 2002, después de descubrirse una vulnerabilidad.

IRC



IRC (Internet Relay Chat) es un protocolo de comunicación en tiempo real basado en texto, que permite debates en grupo o entre dos personas y que está clasificado dentro de la Mensajería instantánea. Las conversaciones se desarrollan en los llamados canales de IRC, designados por nombres que habitualmente comienzan con el carácter # o & (este último sólo es utilizado en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por personas de todo el mundo.

Los usuarios del IRC utilizan una aplicación cliente para conectarse con un servidor, en el que funciona una aplicación IRCd (IRC Daemon o servidor de IRC) que gestiona los canales y las conversaciones.

IRC fue creado por Jarkko Oikarinen (alias "WiZ") en agosto de 1988 con el motivo de reemplazar al programa MUT (talk multiusuario) en un BBS llamado OuluBox en Finlandia. Oikarinen se inspiró en el Bitnet Relay Chat el cual operaba en la red Bitnet.

El IRC ganó popularidad cuando fue utilizado en el intento de golpe de estado en la Unión Soviética de 1991 para informar a través de un periodo de censura en los medios. Fue utilizado de similar manera por los Kuwatíes durante la Invasión a Irak.

Información técnica

IRC es un Protocolo de red que utiliza TCP así como opcionalmente SSL. Un servidor de IRC se puede conectar a otros servidores IRC para expandir la red IRC. Los usuarios acceden a las redes de IRC conectando un cliente a un servidor. Existen muchas implementaciones de clientes IRC así como de servidores. La mayoría de los servidores IRC no necesitan que los usuarios se registren, aunque de cualquier manera se necesita que los usuarios establezcan un alias antes de conectarse.

IRC es un protocolo que envía sus mensajes en texto plano, lo que significa que es posible (aunque poco práctico) utilizar IRC mediante un cliente de flujo de bytes básico como netcat o telnet. De cualquier manera, el protocolo solamente utiliza una versión ligeramente modificada de ASCII, y originalmente no proporciona soporte para caracteres no ASCII en el texto, lo que da como resultado que existan muchas codificaciones incompatibles tales como ISO 8859-1, UTF-8, etc.

Debido a que las implementaciones de IRC utilizan grafos acíclicos como su modelo de conexión, se carece de redundancia y por ese motivo la caída de algún servidor da como resultado un netsplit.

FTP



FTP (File Transfer Protocol) es un protocolo de transferencia de archivos entre sistemas conectados a una red TCP basado en la arquitectura cliente-servidor, de manera que desde un equipo cliente nos podemos conectar a un servidor para descargar archivos desde él o para enviarle nuestros propios archivos independientemente del sistema operativo utilizado en cada equipo.

El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante lo tiene muy fácil para capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos.

Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

Un poco de historia [editar]En 1969, el mismo año en que nació ARPANET (Historia de Internet) como una pequeña red de pocos ordenadores que transmitían información de unos a otros mediante paquetes conmutados (lo que sería en el futuro Internet), un grupo de investigadores del MIT presentó la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (RFC 114). Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de archivos (FTP).

En 1985, quince años después de la primera propuesta, se termina el desarrollo del aún vigente protocolo para la transmisión de archivos en Internet (FTP), basado en la filosofía de cliente-servidor.

El gran boom de Internet se produce en 1995. Este año puede ser considerado como el nacimiento de la Internet comercial. Desde ese momento su crecimiento ha superado todas las expectativas. En este año la World Wide Web supera a FTP transformándose en el servicio preferido de la red, después de que el año anterior superase en popularidad a Telnet.

Con la llegada del World Wide Web, y de los navegadores , ya no es necesario conocer los complejos comandos de FTP, este protocolo se puede utilizar escribiendo la URL del servidor al que queramos conectar en el navegador web, indicando con ftp:// que vamos a contactar con un servidor ftp y no con un servidor web (que sería http:// ).

El Modelo FTP

En el modelo, el intérprete de protocolo (PI) de usuario, inicia la conexión de control en el puerto 21. Las órdenes FTP estándar las genera el PI de usuario y se transmiten al proceso servidor a través de la conexión de control. Las respuestas estándar se envían desde el PI del servidor al PI de usuario por la conexión de control como respuesta a las órdenes.

Estas órdenes FTP especifican parámetros para la conexión de datos (puerto de datos, modo de transferencia, tipo de representación y estructura) y la naturaleza de la operación sobre el sistema de archivos (almacenar, recuperar, añadir, borrar, etc.). El proceso de transferencia de datos (DTP) de usuario u otro proceso en su lugar, debe esperar a que el servidor inicie la conexión al puerto de datos especificado (puerto 20 en modo activo o estándar) y transferir los datos en función de los parámetros que se hayan especificado.

Vemos también en el diagrama que la comunicación entre cliente y servidor es independiente del sistema de archivos utilizado en cada ordenador, de manera que no importa que sus sistemas operativos sean distintos, porque las entidades que se comunican entre sí son los PI y los DTP, que usan el mismo protocolo estandarizado: el FTP.

También hay que destacar que la conexión de datos es bidireccional, es decir, se puede usar simultáneamente para enviar y para recibir, y no tiene por qué existir todo el tiempo que dura la conexión FTP.

E-mail



Correo electrónico, o en inglés e-mail, es un servicio de red para permitir a los usuarios enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de comunicación electrónicos. Principalmente se usa este nombre para denominar al sistema que provee este servicio en Internet, mediante el protocolo SMTP, aunque por extensión también puede verse aplicado a sistemas análogos que usen otras tecnologías. Por medio de mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de documentos. Su eficiencia, conveniencia y bajo costo están logrando que el correo electrónico desplace al correo normal para muchos usos habituales.

El correo electrónico antecede a la Internet, y de hecho, para que ésta pudiera ser creada, fue una herramienta crucial. En una demostración del MIT (Massachusetts Institute of Technology) de 1961, se exhibió un sistema que permitía a varios usuarios ingresar a una IBM 7094 desde terminales remotas, y así guardar archivos en el disco. Esto hizo posible nuevas formas de compartir información. El correo electrónico comenzó a utilizarse en 1965 en una supercomputadora de tiempo compartido y, para 1966, se había extendido rápidamente para utilizarse en las redes de computadoras.

En 1971 Ray Tomlinson incorporó el uso de la arroba (@). Eligió la arroba como divisor entre el usuario y la computadora en la que se aloja la casilla de correo porque en inglés @ se dice "at" (en). Así, fulano@maquina.com se lee fulano en la máquina punto com.

El nombre correo electrónico proviene de la analogía con el correo postal: ambos sirven para enviar y recibir mensajes, y se utilizan "buzones" intermedios (servidores), en donde los mensajes se guardan temporalmente antes de dirigirse a su destino, y antes de que el destinatario los revise.

TELNET



Telnet es el nombre de un navegador (y del programa informático que implementa el cliente) que sirve para acceder mediante una red a otra máquina, para manejarla como si estuviéramos sentados delante de ella. Para que la conexión funcione, como en todos los servicios de Internet, la máquina a la que se acceda debe tener un programa especial que reciba y gestione las conexiones. El puerto que se utiliza generalmente es el 23.

Sólo sirve para acceder en modo terminal, es decir, sin gráficos, pero fue una herramienta muy útil para arreglar fallos a distancia, sin necesidad de estar físicamente en el mismo sitio que la máquina que los tenía. También se usaba para consultar datos a distancia, como datos personales en máquinas accesibles por red, información bibliográfica, etc.

Aparte de estos usos, en general telnet se ha utilizado (y aún hoy se puede utilizar en su variante SSH) para abrir una sesión con una máquina UNIX, de modo que múltiples usuarios con cuenta en la máquina, se conectan, abren sesión y pueden trabajar utilizando esa máquina. Es una forma muy usual de trabajar con sistemas UNIX.

Su mayor problema es de seguridad, ya que todos los nombres de usuario y contraseñas necesarias para entrar en las máquinas viajan por la red como texto plano (cadenas de texto sin cifrar). Esto facilita que cualquiera que espíe el tráfico de la red pueda obtener los nombres de usuario y contraseñas, y así acceder él también a todas esas máquinas. Por esta razón dejó de usarse, casi totalmente, hace unos años, cuando apareció y se popularizó el SSH, que puede describirse como una versión cifrada de telnet.

Hoy en día este protocolo también se usa para acceder a los BBS, que inicialmente eran accesibles únicamente con un módem a través de la línea telefónica. Para acceder a un BBS mediante telnet es necesario un cliente que dé soporte a gráficos ANSI y protocolos de transferencia de ficheros. Los gráficos ANSI son muy usados entre los BBS. Con los protocolos de transferencia de ficheros (el más común y el que mejor funciona es el ZModem) podrás enviar y recibir ficheros del BBS, ya sean programas o juegos o ya sea el correo del BBS (correo local, de FidoNet u otras redes).

Algunos clientes de telnet (que soportan gráficos ANSI y protocolos de transferencias de ficheros como Zmodem y otros) son mTelnet!, NetRunner, Putty, Zoc, etc...


Manejo básico de telnet

Para iniciar una sesión con un intérprete de comandos de otro computador, puede emplear el comando telnet seguido del nombre o la dirección IP de la máquina en la que desea trabajar, por ejemplo si desea conectarse a la máquina purpura.micolegio.edu.com deberá teclear telnet purpura.micolegio.edu.com, y para conectarse con la dirección IP 1.2.3.4 deberá utilizar telnet 1.2.3.4.

Una vez conectado, podrá ingresar el nombre de usuario y contraseña remoto para iniciar una sesión en modo texto a modo de consola virtual (ver Lectura Sistema de usuarios y manejo de clave). La información que transmita (incluyendo su clave) no será protegida o cifrada y podría ser vista en otros computadores por los que se transite la información (la captura de estos datos se realiza con un packet sniffer.

Una alternativa más segura para telnet, pero que requiere más recursos del computador, es SSH. Este cifra la información antes de transmitirla, autentica la máquina a la cual se conecta y puede emplear mecanismos de autenticación de usuarios más seguros.

Seguridad

Hay tres razones principales por las que el telnet no se recomienda para los sistemas modernos desde el punto de vista de la seguridad:

Los demonios de uso general del telnet tienen varias vulnerabilidades descubiertas sobre los años, y varias más que podrían aún existir.
Telnet, por defecto, no cifra ninguno de los datos enviados sobre la conexión (contraseñas inclusive), así que es facil interferir y grabar las comunicaciones, y utilizar la contraseña más adelante para propósitos maliciosos.
Telnet carece de un esquema de autentificación que permita asegurar que la comunicación esté siendo realizada entre los dos anfitriones deseados, y no interceptada entre ellos.
En ambientes donde es importante la seguridad, por ejemplo en el Internet público, telnet no debe ser utilizado. Las sesiones de telnet no son cifradas. Esto significa que cualquiera que tiene acceso a cualquier router, switch, o gateway localizado en la red entre los dos anfitriones donde se está utilizando telnet puede interceptar los paquetes de telnet que pasan cerca y obtener fácilmente la información de la conexión y de la contraseña (y cualquier otra cosa que se mecanografía) con cualesquiera de varias utilidades comunes como tcpdump y Wireshark.

Estos defectos han causado el abandono y depreciación del protocolo telnet rápidamente, a favor de un protocolo más seguro y más funcional llamado SSH, lanzado en 1995. SSH provee de toda la funcionalidad presente en telnet, la adición del cifrado fuerte para evitar que los datos sensibles tales como contraseñas sean interceptados, y de la autentificación mediante llave pública, para asegurarse de que el computador remoto es realmente quién dice ser.

Los expertos en seguridad computacional, tal como el instituto de SANS, y los miembros del newsgroup de comp.os.linux.security recomiendan que el uso del telnet para las conexiones remotas debería ser descontinuado bajo cuaquier circunstancia normal.

Cuando el telnet fue desarrollado inicialmente en 1969, la mayoría de los usuarios de computadoras en red estaban en los servicios informáticos de instituciones académicas, o en grandes instalaciones de investigación privadas y del gobierno. En este ambiente, la seguridad no era una preocupación y solo se convirtió en una preocupación después de la explosión del ancho de banda de los años 90. Con la subida exponencial del número de gente con el acceso al Internet, y por la extensión, el número de gente que procura crackear los servidores de otra gente, telnet podría no ser recomendado para ser utilizado en redes con conectividad a Internet..

jueves, 1 de noviembre de 2007

Servicios de Internet



Hoy en día, los servicios más usados en Internet son:

Correo Electrónico
World Wide Web
FTP
Grupos de Noticia
IRC
Servicios de Telefonía.



E-MAIL

Es un servicio de correspondencia (nacional e internacional), el cual por medio de una cuenta o buzón que posea usted en Internet, puede enviar o recibir documentos, gráficas, vídeos, sonidos, entre otras, de manera sencilla y rápida. Es también una dirección electrónica que sirve para enviar o recibir correo desde cualquier parte del mundo. Una nueva forma de enviar cartas o mensajes electrónicos a personas, es haciendo uso de las computadoras, a través del sistema de redes que componen Internet. Estos mensajes electrónicos viajan por las redes hasta alcanzar su destinatario, que puede ser un amigo conocido en cualquier parte del mundo, con un costo bastante reducido, sin tener que colocarlos una vez escrito, en un sobre y echarlos al buzón de correos.



WWW (WORLD WIDE WEB)

Este servicio le permite al usuario enviar o recibir muchos tipos de documentos como: Texto, imágenes, vídeos, sonido, todos de manera sencilla, permitiendo enlaces (Links) entre diferentes páginas web.

WWW, WEB O W3 WORLD WIDE WEB. Telaraña mundial, para muchos es Internet, para otros es solo parte de esta. Podríamos decir que la web es la parte de Internet a la que accedemos a través del protocolo HTTP (Hiper Text Transfer Protocol) protocolo de Transferencia de Hipertexto, y en consecuencia gracias a Browsers normalmente gráfico como Netscape o Internet Explorer.



TCP

TCP (Transmission Control Protocol, en español Protocolo de Control de Transmisión) es uno de los protocolos fundamentales en Internet. Fue creado entre los años 1973 - 1974 por Vint Cerf y Robert Kahn). Muchos programas dentro de una red de datos compuesta por ordenadores pueden usar TCP para crear conexiones entre ellos a través de las cuales enviarse un flujo de datos. El protocolo garantiza que los datos serán entregados en su destino sin errores y en el mismo orden en que se transmitieron. También proporciona un mecanismo para distinguir distintas aplicaciones dentro de una misma máquina, a través del concepto de puerto. TCP da soporte a muchas de las aplicaciones más populares de Internet, incluidas HTTP, SMTP y SSH.

NAPSTER



Napster es un servicio de distribución de archivos de música (en formato MP3) y pionero de las redes P2P de intercambio creado por Shawn Fanning. Su popularidad comenzó durante el año 2000. Su tecnología permitía a los aficionados a la música compartir sus colecciones de MP3 fácilmente con otros usuarios, lo que originó las protestas de las instituciones de protección de derechos de autor. El servicio fue llamado Napster ("siestero") por el seudónimo de Fanning (se dice que solía tomar muchas siestas).

La primera versión de Napster fue publicada a fines de 1999. Fue el primero de los sistemas de distribución de archivos entre pares de popularidad masiva, era una red centralizada, ya que utilizaba un servidor principal para mantener la lista de usuarios conectados y archivos compartidos por cada uno de ellos. Las transferencias de archivos, sin embargo, eran realizadas entre los usuarios sin intermediarios.

En diciembre de 1999, varias empresas discográficas iniciaron un juicio en contra de Napster. Esto trajo a Napster una enorme popularidad y varios millones de nuevos usuarios. Napster alcanzó su pico con 13,6 millones de usuarios hacia febrero del año 2001.

Para los seguidores de Napster el juicio fue algo confuso. Para ellos la habilidad de compartir archivos era una característica propia de Internet, y no de Napster, el cual actuaba simplemente como un motor de búsqueda. Muchos argumentaban que de cerrar Napster sólo se conseguiría que sus usuarios emigraran hacia otros sistemas de intercambio de archivos. Esto último de hecho ocurrió, con software como Ares Galaxy, Audiogalaxy, Morpheus, Gnutella, Kazaa, LimeWire y eDonkey2000.

En julio de 2001 un juez ordenó el cierre de los servidores Napster para prevenir más violaciones de derechos de autor. Hacia el 24 de septiembre del 2001, había prácticamente llegado a su fin. Napster aceptó pagar a las empresas discográficas 26 millones de dólares por daños y otros 10 millones de dólares por futuras licencias.

El baterista de Metallica, Lars Ulrich fue el primer famoso en enjuiciar a Napster por derechos de autor.

Censuras Filesharing y Pornografia



Filesharing

GNUnet es un marco para redes entre pares seguras que no utiliza servicios centrales ni confiables. Este marco ofrece cifrado a nivel de capa de red y localización de recursos. Los pares de GNUnet monitorizan el comportamiento de otros pares, con respecto al uso de recursos; los pares que contribuyen a la red son recompensados con un mejor servicio.

El código fuente se ha escrito en C, pero con Freeway hay un esfuerzo para producir una versión compatible escrita en Java. Actualmente GNUnet funciona bajo Linux, BSD, Mac OS X, Solaris y Windows.

afs (anonymous file sharing) [editar]La aplicación principal es el anonimato, resistente a la censura file-sharing, permitiendo a los usuarios publicar o buscar anónimamente información de cualquier tipo.


Pornografia

Libertad, pornografía y censura
http://www.caravantes.com/cv/censura.htm
Junio 1998. Antonio Caravantes (antonio @ caravantes.com)

Cualquier internauta puede emitir información a través de una página web o en un mensaje dirigido a un grupo de noticias. Y esas informaciones serán publicadas sin pasar filtros de calidad, estilo o moralidad. El propio usuario se convierte en editor, y solo él es el responsable de lo que publica, igual que el receptor es el único responsable de consultar unas u otras cosas. Esto supone un sistema de comunicaciones realmente libre que jamás ha tenido precedente.

El éxito de la publicación -el número de lectores- depende sobre todo de la simple aceptación que esa información pueda tener en el resto del colectivo, independientemente de lo que se considera como deseable por la mayoría de la sociedad. Por ejemplo, las páginas web con pornografía suelen tener bastante público, aunque un buen sector social considere que ese contenido es inmoral en alguna medida. De hecho hay muchos sitios web que cobran por mostrar imágenes pornográficas y eso tiene más clientes que otro tipo de materiales informativos igualmente vendibles.

En los últimos años se ha iniciado una dura batalla para limitar los contenidos sexuales transmitidos por Internet que supuestamente puedan perjudicar a los más jóvenes. Pero hasta ahora todos los intentos han fracasado porque no se ha encontrado la forma de consensuar esos planteamientos ni tampoco ha habido manera de crear restricciones que estuviesen dentro de la legalidad constitucional imperante en las democracias occidentales. El principal problema está en que no existe un límite definido entre la pornografía y el arte, entre la el sexo y la anatomía, entre el erotismo y la literatura.

La mayoría de nosotros tenemos una idea aproximada de lo que personalmente meteríamos en unas y otras áreas de las que se han mencionado. Pero también es cierto que casi todos somos incapaces de construir un conjunto de reglas que permitan delimitar esas fronteras con suficiente nitidez para que esos criterios sean aplicados posteriormente a todos los contenidos posibles, con rigor e imparcialidad. Seguramente es cierto que el acceso a ciertas informaciones puede afectar al desarrollo de los adolescentes, especialmente si ese acceso va acompañado de una sensación de prohibición o de inmoralidad que aumente el morbo de la consulta y fomente la culpabilidad del receptor. Hay otros factores a tener en cuenta:

Los contenidos que quieren censurarse en Internet están igualmente accesibles en los kioscos, pero es infrecuente que se discuta el bloqueo de esos materiales impresos. Por otro lado, los defensores de la moralidad centran sus críticas en las páginas web con fotografías, cuando -en mi opinión- hay textos más conflictivos que la peor de las imágenes; pocos se preocupan por los peliagudos escritos que se publican en el web o en los foros de noticias. Y también son escasas las críticas contra contenidos violentos que son aún más peligrosos para los adolescentes, según dicen los psicólogos y los criminalistas. Tal vez la supuesta defensa de la decencia juvenil solo sea una forma de encubrir la incapacidad que existe en un sector social para asumir los riesgos de la verdadera libertad.

Todos podemos encontrar en Internet informaciones que popularmente serían consideradas como aburridas, obsoletas, literariamente malas o plagadas de defectos lingüísticos; pero nadie se plantea censurar eso. Ya no sé si el conflicto es de Internet... o el sexo es un problema en sí mismo. Creo que la solución pasa por desdramatizar y despenalizar moralmente esos contenidos sexuales, para que dejen de ser un apetecible pecado y empiecen a considerarse como algo intrascendente que no merece una atención especial. Si a alguien le gusta el sexo en demasía, eso es problema suyo y de su psiquiatra, no del que genera esa información ni de la red que la transmite.

En esta discusión, creo que los únicos que lo tienen realmente claro son los sistemas integristas: bajo un régimen talibán no hay caso para la polémica, igual que tampoco lo había en la España dictatorial de Franco ni en la oscura etapa en que dominaba la Santa Inquisición. Pero corren otros tiempos, y ahora el premio (Príncipe de Asturias) se lo llevan quienes defienden la igualdad y la libertad de hombres, mujeres y niños. Si alguien se atreve a decidir lo que otro puede consultar, tal vez deba asumir que nació demasiado tarde o en el sitio equivocado.

Capas ISO



Modelo OSI

El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) lanzado en 1984 fue el modelo de red descriptivo creado por ISO.

Historia
A principios de la década de 1980 el desarrollo de redes sucedió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.

Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de networking privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controla todo uso de la tecnología. Las tecnologías de networking que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de networking como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.


Modelo de referencia OSI
Siguiendo el esquema de este modelo se crearon numerosos protocolos, por ejemplo X.25, que durante muchos años ocuparon el centro de la escena de las comunicaciones informáticas. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo sigue siendo muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones (sin importar su poca correspondencia con la realidad).

El modelo en sí mismo no puede ser considerado una arquitectura, ya que no especifica el protocolo que debe ser usado en cada capa, sino que suele hablarse de modelo de referencia. Este modelo está dividido en siete capas formado por el ingeniro de sistemas y electronico cibriant david.


Capa Física (Capa 1)
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) y la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)

Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.

Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.

Sus principales funciones se pueden resumir como:

Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas/electromagnéticas
Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de ésta).

Codificación de la señal [editar]El nivel físico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.

En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.

Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulatión) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llaman codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.

En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, con técnicas de modulación complejas de espectro ensanchado


Topología y medios compartidos [editar]Indirectamente el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:

Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros
Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías como el anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto.


Equipos adicionales [editar]A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.


Capa de enlace de datos (Capa 2)
Artículo principal: Nivel de enlace de datos
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.

La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.

Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta que se encarga que tengamos conexión es la tarjeta MAC (control de acceso al medio) y la LLC (control de enlace lógico).

La PDU de la capa 2 es la trama.


Capa de red (Capa 3)
Artículo principal: Nivel de red
El cometido de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.

Adicionalmente la capa de red debe gestionar la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU de la capa 3 es el paquete.

Los switch también pueden trabajar en esta capa dependiendo de la función que se le asigne.


Capa de transporte (Capa 4)
Artículo principal: Nivel de transporte
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.

Para finalizar, podemos definir a la capa de transporte como:

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmentos.


Capa de sesión (Capa 5)
Esta capa ofrece varios servicios que son cruciales para la comunicación, como son:

1 Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).

2 Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).

3 Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.

Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcialmente, o incluso, totalmente prescindibles.

En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén trasmitiendo archivos.


Capa de presentación (Capa 6)
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Por lo tanto, podemos resumir definiendo a esta capa como la encargada de manejar las estructuras de datos abstractas y realizar las conversiones de representación de datos necesarias para la correcta interpretación de los mismos.

Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor


Capa de aplicación (Capa 7)
Ofrece a las aplicaciones(de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "HTTP/1.0 GET index.html" para conseguir una página en html, ni lee directamente el código html/xml.

Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:

HTTP (HyperText Transfer Protocol) el protocolo bajo la www
FTP (File Transfer Protocol) ( FTAM, fuera de TCP/IP) transferencia de ficheros
SMTP (Simple Mail Transfer Protocol) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico
POP (Post Office Protocol)/IMAP: reparto de correo al usuario final
SSH (Secure SHell) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.
Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:

SNMP (Simple Network Management Protocol)
DNS (Domain Name System)

ICANN



ICANN es el acrónimo en inglés de Internet Corporation for Assigned Names and Numbers o Corporación de Internet para la Asignación de Nombres y Números. Es una organización sin ánimo de lucro creada el 18 de septiembre de 1998 con objeto de encargarse de cierto número de tareas realizadas con anterioridad a esa fecha por otra organización, la IANA.

Las atribuciones de la ICANN vinieron dadas por el departamento de comercio de los Estados Unidos bajo la figura de adjudicación directa y única; es decir, no se permitió a ningún organismo o empresa adicional presentar ofertas para la adjudicación de las tareas. Dichas tareas incluyen la gestión de la asignación de nombres de dominio de primer nivel y direcciones IP. Hasta la fecha, casi todo el esfuerzo realizado ha estado involucrado con la creación de 7 nuevos dominios genéricos de primer nivel. Sus actuaciones han sido controvertidas.

Desde el 27 de marzo de 2003, Paul Twomey es el presidente de la ICANN.

La ICANN mantiene congresos públicos periódicamente con objeto de expresar su deseo de mantenerse al tanto de las necesidades de sus miembros. Voces críticas señalan sin embargo que los lugares de encuentro se fijan asiduamente en países con un índice desproporcionadamente bajo de accesos a Internet y lo suficientemente distante del segmento de mayores accesos como para que no puedan permitirse llegar a los mismos limitando así su presencia.

En septiembre y octubre de 2003, la ICANN desempeñó un papel crucial en el conflicto que mantuvo la empresa VeriSign y su cuestionado servicio de DNS Site Finder. Tras una carta abierta de la ICANN, conteniendo un ultimátum contra VeriSign, la compañía cerró finalmente el servicio el 27 de febrero de 2004 alegando que la ICANN había sobrepasado su autoridad y atribuciones.

Internet




Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE.UU.

Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.

Algunos de los servicios disponibles en Internet, aparte de la Web, son el acceso remoto a otras máquinas (SSH y telnet), la transferencia de archivos (FTP), el correo electrónico (SMTP y POP), los boletines electrónicos (news o grupos de noticias), las conversaciones en línea (IRC y chats), la mensajería instantánea y la transmisión de archivos (P2P, P2M, Descarga Directa).

El género de la palabra Internet es ambiguo según el Diccionario de la Real Academia Española. Sin embargo, al ser "Internet" un nombre propio, se recomienda no usar artículo alguno.

Historia
Artículo principal: Historia de Internet
1969, DARPA comienza a planificar la creación de una red que conecte computadores en caso de una eventual guerra atómica que incomunique a los humanos sobre la tierra, con fines principalmente de defensa.

1972, se realizó la Primera demostración pública de ARPANET, una nueva Red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.

1983, el 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.

1986, la NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.

1989, con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.

En el CERN de Ginebra, un grupo de Físicos encabezado por Tim Berners-Lee, crearon el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

2006, el 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.[cita requerida]

En julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida. En los EE.UU. se estaba buscando una forma de mantener las comunicaciones vitales del país en el posible caso de una Guerra Nuclear. Este hecho marcó profundamente su evolución, ya que aún ahora los rasgos fundamentales del proyecto se hallan presentes en lo que hoy conocemos como Internet.


Internet y sociedad

Sitios de Internet por países.Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.

Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.

Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos, en este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.

Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera.


Internet y su evolución
Antes Internet nos servía para un objetivo claro. Navegábamos en Internet para algo muy concreto.

Ahora quizás también, pero sin duda alguna hoy nos podemos perder por el inmenso abanico de posibilidades que nos brinda la Red. Hoy en día, la sensación que nos produce Internet es un ruido interferencias una explosión cúmulo de ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas posibilidades que para una mente pueda ser excesivo.

El crecimiento o más bien la incorporación de tantas personas a la Red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros.

El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones entre personas, aunque virtuales. Así ahora sabemos que nos relacionamos más virtualmente y menos personalmente, conociendo este hecho y relacionándolo con la felicidad originada por las relaciones personales, podemos concluir que cuando una persona tenga una necesidad de conocimiento popular o de conocimiento no escrito en libros recurrirá a la fuente más fiable, más acorde a su necesidad y más accesible que le sea posible. Como ahora esta fuente es posible en Internet dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y por ello no establecerá una relación personal sino virtual, sólo por ese motivo disminuirán las relaciones personales con respecto al pasado más inmediato. Este hecho lejos de ser perjudicial para la especie humana, implica la existencia de un medio capaz de albergar soluciones para problemas que antes eran mucho más difíciles de resolver.

Como toda gran revolución Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Internet produce la sensación que todos hemos sentido alguna vez, produce la esperanza que necesitamos cuando queremos conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Genera una sensación de cercanía, empatía, comprensión, y a la vez de confusión, discusión, lucha y conflictos que no queda otra que afirmar que Internet es como la vida misma.