lunes, 12 de noviembre de 2007

Archie



Sistema para la localización de información sobre archivos y directorios, muy unido al servicio FTP. Es como una gran base de datos donde se encuentra registrada una gran cantidad de nombres de archivos y los servidores FTP. Al igual que gopher, ha sido reemplazado por la WWW. Archie fue el primer motor de búsqueda que se ha inventado, diseñado para indexar archivos FTP, permitiendo a la gente encontrar archivos específicos. La implementación original se escribió en 1990 por Alan Emtage, Bill Heelan, y Peter J. Deutsch, entonces estudiantes en la Universidad McGill de Montreal. Las primeras versiones de archie simplemente contactaban una lista de archivos FTP en bases regulares ( contactando cada una apenas una vez cada mes, para no gastar muchos recursos en los servidores remotos) y requiriendo un listado. Estos listados eran almacenados en ficheros locales para ser buscados usando el comando grep de UNIX. Más tarde, se desarrollaron front- y back-ends más eficaces, y este sistema pasó de ser una herramienta local a un recurso para toda la red, a un servicio popular accesible desde múltiples sitios de Internet. A tales servidores se podía acceder de muchas formas: usando un cliente local (como archie o xarchie); haciendo telnet al servidor directamente, enviando queries por correo electrónico y más tarde con interfaces World Wide Web.El nombre archie viene de la palabra inglesa "archive", pero también está asociado con la serie de tebeos americana “Archie”. Esta no era la intención original, pero fue lo que actuó como inspiración para los nombres de Jughead (oficialmente acrónimo de Jonzy's Universal Gopher Hierarchy Excavation And Display)y Verónica (acrónimo de "Very Easy Rodent-Oriented Net-wide Index to Computer Archives" ), ambos sistemas de búsqueda para del protocolo Gopher. Con la aparición del World Wide Web la búsqueda de archivos se simplificó mucho, y actualmente hay muy pocos servidores activos. Se puede encontrar un gateway en Polonia y Japón.

Usenet



Usenet es el acrónimo de Users Network (Red de usuarios), consistente en un sistema global de discusión en Internet, que evoluciona de las redes UUCP. Fue creado por Tom Truscott y Jim Ellis, estudiantes de la Universidad de Duke, en 1979. Los usuarios pueden leer o enviar mensajes (denominados artículos) a distintos grupos de noticias ordenados de forma jerárquica. El medio se sostiene gracias a un gran número de servidores distribuidos y actualizados mundialmente, que guardan y transmiten los mensajes.

Usenet es uno de los sistemas más antiguos de comunicaciones entre redes de ordenadores, aún en uso actualmente. Permite a un usuario intercambiar opiniones y experiencias…con otras personas interesadas en el mismo tema específico que él. Comenzó a funcionar en 1980, originalmente concebida como un “ARPANET para pobres” empleando UUCP para ofrecer mail y transferencia de archivos, así como noticias sobre el nuevo software desarrollado. El sistema, desarrollado por la Universidad del Norte de Carolina en Chapel Hill y la Universidad de Duke, fue denominado Usenet con la esperanza de que la organización USENIX tuviera un papel activo en ella.

Los usuarios pueden leer o enviar mensajes a distintos grupos de noticias ordenados de forma jerárquica. Cuando un usuario se suscribe a un grupo de noticias, el software cliente de noticias mantiene el hilo de los artículos que ha leído ese usuario. En muchos grupos de noticias, la mayoría de los artículos son respuestas a algún otro. El conjunto de artículos que puede ser rastreados hasta un artículo inicial se denomina hilo. Las últimas versiones muestran los artículos ordenados en hilos y subhilos, para facilitar la búsqueda de discusiones en un grupo de noticias.

La asignación de jerarquías y subgrupos en ciertos casos es anárquica. Inicialmente tan sólo estaban definidas unas pocas jerarquías de nivel superior como comp.*, y posteriormente aparecieron otras libremente como alt.*. Es prácticamente imposible determinar el número total de grupos, ya que cada servidor puede definir los suyos propios (algo que suele suceder con frecuencia).

Usenet gira en torno al artículo, cada uno de los cuales puede ser publicado en uno o más grupos. Los artículos son los datos que se actualizan y propagan mundialmente a través de esta red. Los artículos tienen un formato de texto simple con algunas otras restricciones, y son similares a un mensaje de correo electrónico, salvo por sus cabeceras.

Los artículos no suelen emplear la extensión MIME, y contienen texto sin formato. Cada servidor de news establece el tiempo de vida de cada artículo en función de sus cabeceras, su tamaño, fecha de publicación, etc. En ciertas ocasiones se utilizan los artículos para incluir archivos binarios codificados en formato de texto, utilizando algoritmos como UUEncode, Base64, o recientemente yEncode. De hecho, existen grupos dedicados exclusivamente al envío de mensajes con archivos binarios codificados, como la rama alt.binaries.*, llegando a ser el origen de una gran cantidad de material ilegal.

El gran número de usuarios y grupos, la escasez de recursos requeridos, la velocidad, el anonimato, su libre acceso y su descentralización, entre otros, hacen de Usenet la mayor red de intercambio de información y debate del mundo.

Usenet tiene también una importancia cultural significativa en el mundo reticulado, habiendo dado lugar al nacimiento, o popularizado, conceptos ampliamente reconocidos, como "FAQ" y "spam".

WAIS



WAIS (acrónimo de Wide Area Information Servers) es un sistema de búsqueda de texto distribuido que usa el protocolo estándar cliente-servidor ANSI Z39.50 para buscar bases de datos indexadas en ordenadores remotos. WAIS permite a los usuarios descubrir la información y resuelve el acceso a la información en la red sin tener en cuenta su ubicación física. El protocolo y los servidores WAIS fueron primeramente evangelizados por Thinking Machines Corporation, una empresa de supercomputadoras de Cambridge fundada en 1982 por W. Daniel "Danny" Hillis y Sheryl Handler para convertir la tesis doctoral de Hillis en el MIT sobre arquitecturas de computación en paralelo masiva en un producto comercial llamado Connection Machine. Connection Machine era la alternativa a la arquitectura de Neumann. La CM-1 originalmente concevida en el MIT, era una agrupación de miles de microprocesadores o CPU´s, cada uno con su propia RAM, archivando datos paralelamente con SIMD (Single Instruction, Multiple Data). Primeramente se pensó usar esta supercomputadora para aplicaciones en inteligencia artificial y procesamiento de símbolos, pero luego encontró un gran éxito en el campo de la ciencia computacional. Danny Hillis y Sheryl Handler fundaron Thinking Machines en Waltham, Massachusetts (más tarde se cambiaron a Cambridge, Massachusetts) en 1983 y establecieron un equipo para desarrollar la CM-1 y después la CM-2, las que, dependiendo de la configuración, tenía unos 65,536 procesadores. Los procesadores individuales eran extremadamente simples ya que procesaban un bit cada vez. La CM-2, que se lanzó en 1987, añadía Weitek 3132 floating-point co-procesadores numéricos al sistema, con 32 de los procesadores simples originales compartiendo cada procesador numérico. También se produjeron dos variantes posteriores más a la CM-2, la pequeña CM-2ª con procesadores single-bit 4096 o 8192, y la rápida CM-200. Thinking Machines presentó un servidor WAIS que corría bajo sus supercomputadoras CM-1 y CM-5. Los clientes WAIS eran para varios sistemas operativos incluyendo Windows, Macintosh y Unix. Con el anuncio del World Wide Web a principios de 1990 y la bancarrota de Thinking Machines en el 95, la primitiva interface del sistema WAIS rápidamente cedió su lugar a los motores de búsqueda basados en Web. En el Internet actual ya no hay servidores WAIS activos. Uno de los desarrolladores de WAIS era Brewster Kahle, quien abandonó Thinking Machines para fundar WAIS Inc en Menlo Park, California con Bruce Gilliat. Tras vender WAIS a AOL en mayo de 1995 por $15 millones, Kahle and Gilliat fundaron Internet Archive (IA) y más tarde la empresa Alexa Internet.

Gopher



Gopher es un servicio de Internet consistente en el acceso a la información a través de menús. La información se organiza de forma arborescente: sólo los nodos contienen menús de acceso a otros menús o a hojas, mientras que las hojas contienen simplemente información textual. En cierto modo es un predecesor de la Web, aunque sólo se permiten enlaces desde nodos-menús hasta otros nodos-menús o a hojas, y las hojas no tienen ningún tipo de hiperenlaces.

El protocolo Gopher fue presentado en 1991 por la Universidad de Minnesota, y su nombre puede proceder tanto de la mascota de la universidad (un gopher, una ardilla de tierra), como del coloquial go-fer, ir-por o "ir a por/buscar información".

Aunque los servidores gopher que quedan son testimoniales, el navegador Mozilla todavía tiene soporte para el mismo. El Internet Explorer lo eliminó en 2002, después de descubrirse una vulnerabilidad.

IRC



IRC (Internet Relay Chat) es un protocolo de comunicación en tiempo real basado en texto, que permite debates en grupo o entre dos personas y que está clasificado dentro de la Mensajería instantánea. Las conversaciones se desarrollan en los llamados canales de IRC, designados por nombres que habitualmente comienzan con el carácter # o & (este último sólo es utilizado en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por personas de todo el mundo.

Los usuarios del IRC utilizan una aplicación cliente para conectarse con un servidor, en el que funciona una aplicación IRCd (IRC Daemon o servidor de IRC) que gestiona los canales y las conversaciones.

IRC fue creado por Jarkko Oikarinen (alias "WiZ") en agosto de 1988 con el motivo de reemplazar al programa MUT (talk multiusuario) en un BBS llamado OuluBox en Finlandia. Oikarinen se inspiró en el Bitnet Relay Chat el cual operaba en la red Bitnet.

El IRC ganó popularidad cuando fue utilizado en el intento de golpe de estado en la Unión Soviética de 1991 para informar a través de un periodo de censura en los medios. Fue utilizado de similar manera por los Kuwatíes durante la Invasión a Irak.

Información técnica

IRC es un Protocolo de red que utiliza TCP así como opcionalmente SSL. Un servidor de IRC se puede conectar a otros servidores IRC para expandir la red IRC. Los usuarios acceden a las redes de IRC conectando un cliente a un servidor. Existen muchas implementaciones de clientes IRC así como de servidores. La mayoría de los servidores IRC no necesitan que los usuarios se registren, aunque de cualquier manera se necesita que los usuarios establezcan un alias antes de conectarse.

IRC es un protocolo que envía sus mensajes en texto plano, lo que significa que es posible (aunque poco práctico) utilizar IRC mediante un cliente de flujo de bytes básico como netcat o telnet. De cualquier manera, el protocolo solamente utiliza una versión ligeramente modificada de ASCII, y originalmente no proporciona soporte para caracteres no ASCII en el texto, lo que da como resultado que existan muchas codificaciones incompatibles tales como ISO 8859-1, UTF-8, etc.

Debido a que las implementaciones de IRC utilizan grafos acíclicos como su modelo de conexión, se carece de redundancia y por ese motivo la caída de algún servidor da como resultado un netsplit.

FTP



FTP (File Transfer Protocol) es un protocolo de transferencia de archivos entre sistemas conectados a una red TCP basado en la arquitectura cliente-servidor, de manera que desde un equipo cliente nos podemos conectar a un servidor para descargar archivos desde él o para enviarle nuestros propios archivos independientemente del sistema operativo utilizado en cada equipo.

El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante lo tiene muy fácil para capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos.

Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

Un poco de historia [editar]En 1969, el mismo año en que nació ARPANET (Historia de Internet) como una pequeña red de pocos ordenadores que transmitían información de unos a otros mediante paquetes conmutados (lo que sería en el futuro Internet), un grupo de investigadores del MIT presentó la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (RFC 114). Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de archivos (FTP).

En 1985, quince años después de la primera propuesta, se termina el desarrollo del aún vigente protocolo para la transmisión de archivos en Internet (FTP), basado en la filosofía de cliente-servidor.

El gran boom de Internet se produce en 1995. Este año puede ser considerado como el nacimiento de la Internet comercial. Desde ese momento su crecimiento ha superado todas las expectativas. En este año la World Wide Web supera a FTP transformándose en el servicio preferido de la red, después de que el año anterior superase en popularidad a Telnet.

Con la llegada del World Wide Web, y de los navegadores , ya no es necesario conocer los complejos comandos de FTP, este protocolo se puede utilizar escribiendo la URL del servidor al que queramos conectar en el navegador web, indicando con ftp:// que vamos a contactar con un servidor ftp y no con un servidor web (que sería http:// ).

El Modelo FTP

En el modelo, el intérprete de protocolo (PI) de usuario, inicia la conexión de control en el puerto 21. Las órdenes FTP estándar las genera el PI de usuario y se transmiten al proceso servidor a través de la conexión de control. Las respuestas estándar se envían desde el PI del servidor al PI de usuario por la conexión de control como respuesta a las órdenes.

Estas órdenes FTP especifican parámetros para la conexión de datos (puerto de datos, modo de transferencia, tipo de representación y estructura) y la naturaleza de la operación sobre el sistema de archivos (almacenar, recuperar, añadir, borrar, etc.). El proceso de transferencia de datos (DTP) de usuario u otro proceso en su lugar, debe esperar a que el servidor inicie la conexión al puerto de datos especificado (puerto 20 en modo activo o estándar) y transferir los datos en función de los parámetros que se hayan especificado.

Vemos también en el diagrama que la comunicación entre cliente y servidor es independiente del sistema de archivos utilizado en cada ordenador, de manera que no importa que sus sistemas operativos sean distintos, porque las entidades que se comunican entre sí son los PI y los DTP, que usan el mismo protocolo estandarizado: el FTP.

También hay que destacar que la conexión de datos es bidireccional, es decir, se puede usar simultáneamente para enviar y para recibir, y no tiene por qué existir todo el tiempo que dura la conexión FTP.

E-mail



Correo electrónico, o en inglés e-mail, es un servicio de red para permitir a los usuarios enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de comunicación electrónicos. Principalmente se usa este nombre para denominar al sistema que provee este servicio en Internet, mediante el protocolo SMTP, aunque por extensión también puede verse aplicado a sistemas análogos que usen otras tecnologías. Por medio de mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de documentos. Su eficiencia, conveniencia y bajo costo están logrando que el correo electrónico desplace al correo normal para muchos usos habituales.

El correo electrónico antecede a la Internet, y de hecho, para que ésta pudiera ser creada, fue una herramienta crucial. En una demostración del MIT (Massachusetts Institute of Technology) de 1961, se exhibió un sistema que permitía a varios usuarios ingresar a una IBM 7094 desde terminales remotas, y así guardar archivos en el disco. Esto hizo posible nuevas formas de compartir información. El correo electrónico comenzó a utilizarse en 1965 en una supercomputadora de tiempo compartido y, para 1966, se había extendido rápidamente para utilizarse en las redes de computadoras.

En 1971 Ray Tomlinson incorporó el uso de la arroba (@). Eligió la arroba como divisor entre el usuario y la computadora en la que se aloja la casilla de correo porque en inglés @ se dice "at" (en). Así, fulano@maquina.com se lee fulano en la máquina punto com.

El nombre correo electrónico proviene de la analogía con el correo postal: ambos sirven para enviar y recibir mensajes, y se utilizan "buzones" intermedios (servidores), en donde los mensajes se guardan temporalmente antes de dirigirse a su destino, y antes de que el destinatario los revise.