lunes, 12 de noviembre de 2007

Archie



Sistema para la localización de información sobre archivos y directorios, muy unido al servicio FTP. Es como una gran base de datos donde se encuentra registrada una gran cantidad de nombres de archivos y los servidores FTP. Al igual que gopher, ha sido reemplazado por la WWW. Archie fue el primer motor de búsqueda que se ha inventado, diseñado para indexar archivos FTP, permitiendo a la gente encontrar archivos específicos. La implementación original se escribió en 1990 por Alan Emtage, Bill Heelan, y Peter J. Deutsch, entonces estudiantes en la Universidad McGill de Montreal. Las primeras versiones de archie simplemente contactaban una lista de archivos FTP en bases regulares ( contactando cada una apenas una vez cada mes, para no gastar muchos recursos en los servidores remotos) y requiriendo un listado. Estos listados eran almacenados en ficheros locales para ser buscados usando el comando grep de UNIX. Más tarde, se desarrollaron front- y back-ends más eficaces, y este sistema pasó de ser una herramienta local a un recurso para toda la red, a un servicio popular accesible desde múltiples sitios de Internet. A tales servidores se podía acceder de muchas formas: usando un cliente local (como archie o xarchie); haciendo telnet al servidor directamente, enviando queries por correo electrónico y más tarde con interfaces World Wide Web.El nombre archie viene de la palabra inglesa "archive", pero también está asociado con la serie de tebeos americana “Archie”. Esta no era la intención original, pero fue lo que actuó como inspiración para los nombres de Jughead (oficialmente acrónimo de Jonzy's Universal Gopher Hierarchy Excavation And Display)y Verónica (acrónimo de "Very Easy Rodent-Oriented Net-wide Index to Computer Archives" ), ambos sistemas de búsqueda para del protocolo Gopher. Con la aparición del World Wide Web la búsqueda de archivos se simplificó mucho, y actualmente hay muy pocos servidores activos. Se puede encontrar un gateway en Polonia y Japón.

Usenet



Usenet es el acrónimo de Users Network (Red de usuarios), consistente en un sistema global de discusión en Internet, que evoluciona de las redes UUCP. Fue creado por Tom Truscott y Jim Ellis, estudiantes de la Universidad de Duke, en 1979. Los usuarios pueden leer o enviar mensajes (denominados artículos) a distintos grupos de noticias ordenados de forma jerárquica. El medio se sostiene gracias a un gran número de servidores distribuidos y actualizados mundialmente, que guardan y transmiten los mensajes.

Usenet es uno de los sistemas más antiguos de comunicaciones entre redes de ordenadores, aún en uso actualmente. Permite a un usuario intercambiar opiniones y experiencias…con otras personas interesadas en el mismo tema específico que él. Comenzó a funcionar en 1980, originalmente concebida como un “ARPANET para pobres” empleando UUCP para ofrecer mail y transferencia de archivos, así como noticias sobre el nuevo software desarrollado. El sistema, desarrollado por la Universidad del Norte de Carolina en Chapel Hill y la Universidad de Duke, fue denominado Usenet con la esperanza de que la organización USENIX tuviera un papel activo en ella.

Los usuarios pueden leer o enviar mensajes a distintos grupos de noticias ordenados de forma jerárquica. Cuando un usuario se suscribe a un grupo de noticias, el software cliente de noticias mantiene el hilo de los artículos que ha leído ese usuario. En muchos grupos de noticias, la mayoría de los artículos son respuestas a algún otro. El conjunto de artículos que puede ser rastreados hasta un artículo inicial se denomina hilo. Las últimas versiones muestran los artículos ordenados en hilos y subhilos, para facilitar la búsqueda de discusiones en un grupo de noticias.

La asignación de jerarquías y subgrupos en ciertos casos es anárquica. Inicialmente tan sólo estaban definidas unas pocas jerarquías de nivel superior como comp.*, y posteriormente aparecieron otras libremente como alt.*. Es prácticamente imposible determinar el número total de grupos, ya que cada servidor puede definir los suyos propios (algo que suele suceder con frecuencia).

Usenet gira en torno al artículo, cada uno de los cuales puede ser publicado en uno o más grupos. Los artículos son los datos que se actualizan y propagan mundialmente a través de esta red. Los artículos tienen un formato de texto simple con algunas otras restricciones, y son similares a un mensaje de correo electrónico, salvo por sus cabeceras.

Los artículos no suelen emplear la extensión MIME, y contienen texto sin formato. Cada servidor de news establece el tiempo de vida de cada artículo en función de sus cabeceras, su tamaño, fecha de publicación, etc. En ciertas ocasiones se utilizan los artículos para incluir archivos binarios codificados en formato de texto, utilizando algoritmos como UUEncode, Base64, o recientemente yEncode. De hecho, existen grupos dedicados exclusivamente al envío de mensajes con archivos binarios codificados, como la rama alt.binaries.*, llegando a ser el origen de una gran cantidad de material ilegal.

El gran número de usuarios y grupos, la escasez de recursos requeridos, la velocidad, el anonimato, su libre acceso y su descentralización, entre otros, hacen de Usenet la mayor red de intercambio de información y debate del mundo.

Usenet tiene también una importancia cultural significativa en el mundo reticulado, habiendo dado lugar al nacimiento, o popularizado, conceptos ampliamente reconocidos, como "FAQ" y "spam".

WAIS



WAIS (acrónimo de Wide Area Information Servers) es un sistema de búsqueda de texto distribuido que usa el protocolo estándar cliente-servidor ANSI Z39.50 para buscar bases de datos indexadas en ordenadores remotos. WAIS permite a los usuarios descubrir la información y resuelve el acceso a la información en la red sin tener en cuenta su ubicación física. El protocolo y los servidores WAIS fueron primeramente evangelizados por Thinking Machines Corporation, una empresa de supercomputadoras de Cambridge fundada en 1982 por W. Daniel "Danny" Hillis y Sheryl Handler para convertir la tesis doctoral de Hillis en el MIT sobre arquitecturas de computación en paralelo masiva en un producto comercial llamado Connection Machine. Connection Machine era la alternativa a la arquitectura de Neumann. La CM-1 originalmente concevida en el MIT, era una agrupación de miles de microprocesadores o CPU´s, cada uno con su propia RAM, archivando datos paralelamente con SIMD (Single Instruction, Multiple Data). Primeramente se pensó usar esta supercomputadora para aplicaciones en inteligencia artificial y procesamiento de símbolos, pero luego encontró un gran éxito en el campo de la ciencia computacional. Danny Hillis y Sheryl Handler fundaron Thinking Machines en Waltham, Massachusetts (más tarde se cambiaron a Cambridge, Massachusetts) en 1983 y establecieron un equipo para desarrollar la CM-1 y después la CM-2, las que, dependiendo de la configuración, tenía unos 65,536 procesadores. Los procesadores individuales eran extremadamente simples ya que procesaban un bit cada vez. La CM-2, que se lanzó en 1987, añadía Weitek 3132 floating-point co-procesadores numéricos al sistema, con 32 de los procesadores simples originales compartiendo cada procesador numérico. También se produjeron dos variantes posteriores más a la CM-2, la pequeña CM-2ª con procesadores single-bit 4096 o 8192, y la rápida CM-200. Thinking Machines presentó un servidor WAIS que corría bajo sus supercomputadoras CM-1 y CM-5. Los clientes WAIS eran para varios sistemas operativos incluyendo Windows, Macintosh y Unix. Con el anuncio del World Wide Web a principios de 1990 y la bancarrota de Thinking Machines en el 95, la primitiva interface del sistema WAIS rápidamente cedió su lugar a los motores de búsqueda basados en Web. En el Internet actual ya no hay servidores WAIS activos. Uno de los desarrolladores de WAIS era Brewster Kahle, quien abandonó Thinking Machines para fundar WAIS Inc en Menlo Park, California con Bruce Gilliat. Tras vender WAIS a AOL en mayo de 1995 por $15 millones, Kahle and Gilliat fundaron Internet Archive (IA) y más tarde la empresa Alexa Internet.

Gopher



Gopher es un servicio de Internet consistente en el acceso a la información a través de menús. La información se organiza de forma arborescente: sólo los nodos contienen menús de acceso a otros menús o a hojas, mientras que las hojas contienen simplemente información textual. En cierto modo es un predecesor de la Web, aunque sólo se permiten enlaces desde nodos-menús hasta otros nodos-menús o a hojas, y las hojas no tienen ningún tipo de hiperenlaces.

El protocolo Gopher fue presentado en 1991 por la Universidad de Minnesota, y su nombre puede proceder tanto de la mascota de la universidad (un gopher, una ardilla de tierra), como del coloquial go-fer, ir-por o "ir a por/buscar información".

Aunque los servidores gopher que quedan son testimoniales, el navegador Mozilla todavía tiene soporte para el mismo. El Internet Explorer lo eliminó en 2002, después de descubrirse una vulnerabilidad.

IRC



IRC (Internet Relay Chat) es un protocolo de comunicación en tiempo real basado en texto, que permite debates en grupo o entre dos personas y que está clasificado dentro de la Mensajería instantánea. Las conversaciones se desarrollan en los llamados canales de IRC, designados por nombres que habitualmente comienzan con el carácter # o & (este último sólo es utilizado en canales locales del servidor). Es un sistema de charlas ampliamente utilizado por personas de todo el mundo.

Los usuarios del IRC utilizan una aplicación cliente para conectarse con un servidor, en el que funciona una aplicación IRCd (IRC Daemon o servidor de IRC) que gestiona los canales y las conversaciones.

IRC fue creado por Jarkko Oikarinen (alias "WiZ") en agosto de 1988 con el motivo de reemplazar al programa MUT (talk multiusuario) en un BBS llamado OuluBox en Finlandia. Oikarinen se inspiró en el Bitnet Relay Chat el cual operaba en la red Bitnet.

El IRC ganó popularidad cuando fue utilizado en el intento de golpe de estado en la Unión Soviética de 1991 para informar a través de un periodo de censura en los medios. Fue utilizado de similar manera por los Kuwatíes durante la Invasión a Irak.

Información técnica

IRC es un Protocolo de red que utiliza TCP así como opcionalmente SSL. Un servidor de IRC se puede conectar a otros servidores IRC para expandir la red IRC. Los usuarios acceden a las redes de IRC conectando un cliente a un servidor. Existen muchas implementaciones de clientes IRC así como de servidores. La mayoría de los servidores IRC no necesitan que los usuarios se registren, aunque de cualquier manera se necesita que los usuarios establezcan un alias antes de conectarse.

IRC es un protocolo que envía sus mensajes en texto plano, lo que significa que es posible (aunque poco práctico) utilizar IRC mediante un cliente de flujo de bytes básico como netcat o telnet. De cualquier manera, el protocolo solamente utiliza una versión ligeramente modificada de ASCII, y originalmente no proporciona soporte para caracteres no ASCII en el texto, lo que da como resultado que existan muchas codificaciones incompatibles tales como ISO 8859-1, UTF-8, etc.

Debido a que las implementaciones de IRC utilizan grafos acíclicos como su modelo de conexión, se carece de redundancia y por ese motivo la caída de algún servidor da como resultado un netsplit.

FTP



FTP (File Transfer Protocol) es un protocolo de transferencia de archivos entre sistemas conectados a una red TCP basado en la arquitectura cliente-servidor, de manera que desde un equipo cliente nos podemos conectar a un servidor para descargar archivos desde él o para enviarle nuestros propios archivos independientemente del sistema operativo utilizado en cada equipo.

El Servicio FTP es ofrecido por la capa de Aplicación del modelo de capas de red TCP/IP al usuario, utilizando normalmente el puerto de red 20 y el 21. Un problema básico de FTP es que está pensado para ofrecer la máxima velocidad en la conexión, pero no la máxima seguridad, ya que todo el intercambio de información, desde el login y password del usuario en el servidor hasta la transferencia de cualquier archivo, se realiza en texto plano sin ningún tipo de cifrado, con lo que un posible atacante lo tiene muy fácil para capturar este tráfico, acceder al servidor, o apropiarse de los archivos transferidos.

Para solucionar este problema son de gran utilidad aplicaciones como scp y sftp, incluidas en el paquete SSH, que permiten transferir archivos pero cifrando todo el tráfico.

Un poco de historia [editar]En 1969, el mismo año en que nació ARPANET (Historia de Internet) como una pequeña red de pocos ordenadores que transmitían información de unos a otros mediante paquetes conmutados (lo que sería en el futuro Internet), un grupo de investigadores del MIT presentó la propuesta del primer "Protocolo para la transmisión de archivos en Internet" (RFC 114). Era un protocolo muy sencillo basado en el sistema de correo electrónico pero sentó las bases para el futuro protocolo de transmisión de archivos (FTP).

En 1985, quince años después de la primera propuesta, se termina el desarrollo del aún vigente protocolo para la transmisión de archivos en Internet (FTP), basado en la filosofía de cliente-servidor.

El gran boom de Internet se produce en 1995. Este año puede ser considerado como el nacimiento de la Internet comercial. Desde ese momento su crecimiento ha superado todas las expectativas. En este año la World Wide Web supera a FTP transformándose en el servicio preferido de la red, después de que el año anterior superase en popularidad a Telnet.

Con la llegada del World Wide Web, y de los navegadores , ya no es necesario conocer los complejos comandos de FTP, este protocolo se puede utilizar escribiendo la URL del servidor al que queramos conectar en el navegador web, indicando con ftp:// que vamos a contactar con un servidor ftp y no con un servidor web (que sería http:// ).

El Modelo FTP

En el modelo, el intérprete de protocolo (PI) de usuario, inicia la conexión de control en el puerto 21. Las órdenes FTP estándar las genera el PI de usuario y se transmiten al proceso servidor a través de la conexión de control. Las respuestas estándar se envían desde el PI del servidor al PI de usuario por la conexión de control como respuesta a las órdenes.

Estas órdenes FTP especifican parámetros para la conexión de datos (puerto de datos, modo de transferencia, tipo de representación y estructura) y la naturaleza de la operación sobre el sistema de archivos (almacenar, recuperar, añadir, borrar, etc.). El proceso de transferencia de datos (DTP) de usuario u otro proceso en su lugar, debe esperar a que el servidor inicie la conexión al puerto de datos especificado (puerto 20 en modo activo o estándar) y transferir los datos en función de los parámetros que se hayan especificado.

Vemos también en el diagrama que la comunicación entre cliente y servidor es independiente del sistema de archivos utilizado en cada ordenador, de manera que no importa que sus sistemas operativos sean distintos, porque las entidades que se comunican entre sí son los PI y los DTP, que usan el mismo protocolo estandarizado: el FTP.

También hay que destacar que la conexión de datos es bidireccional, es decir, se puede usar simultáneamente para enviar y para recibir, y no tiene por qué existir todo el tiempo que dura la conexión FTP.

E-mail



Correo electrónico, o en inglés e-mail, es un servicio de red para permitir a los usuarios enviar y recibir mensajes rápidamente (también denominados mensajes electrónicos o cartas electrónicas) mediante sistemas de comunicación electrónicos. Principalmente se usa este nombre para denominar al sistema que provee este servicio en Internet, mediante el protocolo SMTP, aunque por extensión también puede verse aplicado a sistemas análogos que usen otras tecnologías. Por medio de mensajes de correo electrónico se puede enviar, no solamente texto, sino todo tipo de documentos. Su eficiencia, conveniencia y bajo costo están logrando que el correo electrónico desplace al correo normal para muchos usos habituales.

El correo electrónico antecede a la Internet, y de hecho, para que ésta pudiera ser creada, fue una herramienta crucial. En una demostración del MIT (Massachusetts Institute of Technology) de 1961, se exhibió un sistema que permitía a varios usuarios ingresar a una IBM 7094 desde terminales remotas, y así guardar archivos en el disco. Esto hizo posible nuevas formas de compartir información. El correo electrónico comenzó a utilizarse en 1965 en una supercomputadora de tiempo compartido y, para 1966, se había extendido rápidamente para utilizarse en las redes de computadoras.

En 1971 Ray Tomlinson incorporó el uso de la arroba (@). Eligió la arroba como divisor entre el usuario y la computadora en la que se aloja la casilla de correo porque en inglés @ se dice "at" (en). Así, fulano@maquina.com se lee fulano en la máquina punto com.

El nombre correo electrónico proviene de la analogía con el correo postal: ambos sirven para enviar y recibir mensajes, y se utilizan "buzones" intermedios (servidores), en donde los mensajes se guardan temporalmente antes de dirigirse a su destino, y antes de que el destinatario los revise.

TELNET



Telnet es el nombre de un navegador (y del programa informático que implementa el cliente) que sirve para acceder mediante una red a otra máquina, para manejarla como si estuviéramos sentados delante de ella. Para que la conexión funcione, como en todos los servicios de Internet, la máquina a la que se acceda debe tener un programa especial que reciba y gestione las conexiones. El puerto que se utiliza generalmente es el 23.

Sólo sirve para acceder en modo terminal, es decir, sin gráficos, pero fue una herramienta muy útil para arreglar fallos a distancia, sin necesidad de estar físicamente en el mismo sitio que la máquina que los tenía. También se usaba para consultar datos a distancia, como datos personales en máquinas accesibles por red, información bibliográfica, etc.

Aparte de estos usos, en general telnet se ha utilizado (y aún hoy se puede utilizar en su variante SSH) para abrir una sesión con una máquina UNIX, de modo que múltiples usuarios con cuenta en la máquina, se conectan, abren sesión y pueden trabajar utilizando esa máquina. Es una forma muy usual de trabajar con sistemas UNIX.

Su mayor problema es de seguridad, ya que todos los nombres de usuario y contraseñas necesarias para entrar en las máquinas viajan por la red como texto plano (cadenas de texto sin cifrar). Esto facilita que cualquiera que espíe el tráfico de la red pueda obtener los nombres de usuario y contraseñas, y así acceder él también a todas esas máquinas. Por esta razón dejó de usarse, casi totalmente, hace unos años, cuando apareció y se popularizó el SSH, que puede describirse como una versión cifrada de telnet.

Hoy en día este protocolo también se usa para acceder a los BBS, que inicialmente eran accesibles únicamente con un módem a través de la línea telefónica. Para acceder a un BBS mediante telnet es necesario un cliente que dé soporte a gráficos ANSI y protocolos de transferencia de ficheros. Los gráficos ANSI son muy usados entre los BBS. Con los protocolos de transferencia de ficheros (el más común y el que mejor funciona es el ZModem) podrás enviar y recibir ficheros del BBS, ya sean programas o juegos o ya sea el correo del BBS (correo local, de FidoNet u otras redes).

Algunos clientes de telnet (que soportan gráficos ANSI y protocolos de transferencias de ficheros como Zmodem y otros) son mTelnet!, NetRunner, Putty, Zoc, etc...


Manejo básico de telnet

Para iniciar una sesión con un intérprete de comandos de otro computador, puede emplear el comando telnet seguido del nombre o la dirección IP de la máquina en la que desea trabajar, por ejemplo si desea conectarse a la máquina purpura.micolegio.edu.com deberá teclear telnet purpura.micolegio.edu.com, y para conectarse con la dirección IP 1.2.3.4 deberá utilizar telnet 1.2.3.4.

Una vez conectado, podrá ingresar el nombre de usuario y contraseña remoto para iniciar una sesión en modo texto a modo de consola virtual (ver Lectura Sistema de usuarios y manejo de clave). La información que transmita (incluyendo su clave) no será protegida o cifrada y podría ser vista en otros computadores por los que se transite la información (la captura de estos datos se realiza con un packet sniffer.

Una alternativa más segura para telnet, pero que requiere más recursos del computador, es SSH. Este cifra la información antes de transmitirla, autentica la máquina a la cual se conecta y puede emplear mecanismos de autenticación de usuarios más seguros.

Seguridad

Hay tres razones principales por las que el telnet no se recomienda para los sistemas modernos desde el punto de vista de la seguridad:

Los demonios de uso general del telnet tienen varias vulnerabilidades descubiertas sobre los años, y varias más que podrían aún existir.
Telnet, por defecto, no cifra ninguno de los datos enviados sobre la conexión (contraseñas inclusive), así que es facil interferir y grabar las comunicaciones, y utilizar la contraseña más adelante para propósitos maliciosos.
Telnet carece de un esquema de autentificación que permita asegurar que la comunicación esté siendo realizada entre los dos anfitriones deseados, y no interceptada entre ellos.
En ambientes donde es importante la seguridad, por ejemplo en el Internet público, telnet no debe ser utilizado. Las sesiones de telnet no son cifradas. Esto significa que cualquiera que tiene acceso a cualquier router, switch, o gateway localizado en la red entre los dos anfitriones donde se está utilizando telnet puede interceptar los paquetes de telnet que pasan cerca y obtener fácilmente la información de la conexión y de la contraseña (y cualquier otra cosa que se mecanografía) con cualesquiera de varias utilidades comunes como tcpdump y Wireshark.

Estos defectos han causado el abandono y depreciación del protocolo telnet rápidamente, a favor de un protocolo más seguro y más funcional llamado SSH, lanzado en 1995. SSH provee de toda la funcionalidad presente en telnet, la adición del cifrado fuerte para evitar que los datos sensibles tales como contraseñas sean interceptados, y de la autentificación mediante llave pública, para asegurarse de que el computador remoto es realmente quién dice ser.

Los expertos en seguridad computacional, tal como el instituto de SANS, y los miembros del newsgroup de comp.os.linux.security recomiendan que el uso del telnet para las conexiones remotas debería ser descontinuado bajo cuaquier circunstancia normal.

Cuando el telnet fue desarrollado inicialmente en 1969, la mayoría de los usuarios de computadoras en red estaban en los servicios informáticos de instituciones académicas, o en grandes instalaciones de investigación privadas y del gobierno. En este ambiente, la seguridad no era una preocupación y solo se convirtió en una preocupación después de la explosión del ancho de banda de los años 90. Con la subida exponencial del número de gente con el acceso al Internet, y por la extensión, el número de gente que procura crackear los servidores de otra gente, telnet podría no ser recomendado para ser utilizado en redes con conectividad a Internet..

jueves, 1 de noviembre de 2007

Servicios de Internet



Hoy en día, los servicios más usados en Internet son:

Correo Electrónico
World Wide Web
FTP
Grupos de Noticia
IRC
Servicios de Telefonía.



E-MAIL

Es un servicio de correspondencia (nacional e internacional), el cual por medio de una cuenta o buzón que posea usted en Internet, puede enviar o recibir documentos, gráficas, vídeos, sonidos, entre otras, de manera sencilla y rápida. Es también una dirección electrónica que sirve para enviar o recibir correo desde cualquier parte del mundo. Una nueva forma de enviar cartas o mensajes electrónicos a personas, es haciendo uso de las computadoras, a través del sistema de redes que componen Internet. Estos mensajes electrónicos viajan por las redes hasta alcanzar su destinatario, que puede ser un amigo conocido en cualquier parte del mundo, con un costo bastante reducido, sin tener que colocarlos una vez escrito, en un sobre y echarlos al buzón de correos.



WWW (WORLD WIDE WEB)

Este servicio le permite al usuario enviar o recibir muchos tipos de documentos como: Texto, imágenes, vídeos, sonido, todos de manera sencilla, permitiendo enlaces (Links) entre diferentes páginas web.

WWW, WEB O W3 WORLD WIDE WEB. Telaraña mundial, para muchos es Internet, para otros es solo parte de esta. Podríamos decir que la web es la parte de Internet a la que accedemos a través del protocolo HTTP (Hiper Text Transfer Protocol) protocolo de Transferencia de Hipertexto, y en consecuencia gracias a Browsers normalmente gráfico como Netscape o Internet Explorer.



TCP

TCP (Transmission Control Protocol, en español Protocolo de Control de Transmisión) es uno de los protocolos fundamentales en Internet. Fue creado entre los años 1973 - 1974 por Vint Cerf y Robert Kahn). Muchos programas dentro de una red de datos compuesta por ordenadores pueden usar TCP para crear conexiones entre ellos a través de las cuales enviarse un flujo de datos. El protocolo garantiza que los datos serán entregados en su destino sin errores y en el mismo orden en que se transmitieron. También proporciona un mecanismo para distinguir distintas aplicaciones dentro de una misma máquina, a través del concepto de puerto. TCP da soporte a muchas de las aplicaciones más populares de Internet, incluidas HTTP, SMTP y SSH.

NAPSTER



Napster es un servicio de distribución de archivos de música (en formato MP3) y pionero de las redes P2P de intercambio creado por Shawn Fanning. Su popularidad comenzó durante el año 2000. Su tecnología permitía a los aficionados a la música compartir sus colecciones de MP3 fácilmente con otros usuarios, lo que originó las protestas de las instituciones de protección de derechos de autor. El servicio fue llamado Napster ("siestero") por el seudónimo de Fanning (se dice que solía tomar muchas siestas).

La primera versión de Napster fue publicada a fines de 1999. Fue el primero de los sistemas de distribución de archivos entre pares de popularidad masiva, era una red centralizada, ya que utilizaba un servidor principal para mantener la lista de usuarios conectados y archivos compartidos por cada uno de ellos. Las transferencias de archivos, sin embargo, eran realizadas entre los usuarios sin intermediarios.

En diciembre de 1999, varias empresas discográficas iniciaron un juicio en contra de Napster. Esto trajo a Napster una enorme popularidad y varios millones de nuevos usuarios. Napster alcanzó su pico con 13,6 millones de usuarios hacia febrero del año 2001.

Para los seguidores de Napster el juicio fue algo confuso. Para ellos la habilidad de compartir archivos era una característica propia de Internet, y no de Napster, el cual actuaba simplemente como un motor de búsqueda. Muchos argumentaban que de cerrar Napster sólo se conseguiría que sus usuarios emigraran hacia otros sistemas de intercambio de archivos. Esto último de hecho ocurrió, con software como Ares Galaxy, Audiogalaxy, Morpheus, Gnutella, Kazaa, LimeWire y eDonkey2000.

En julio de 2001 un juez ordenó el cierre de los servidores Napster para prevenir más violaciones de derechos de autor. Hacia el 24 de septiembre del 2001, había prácticamente llegado a su fin. Napster aceptó pagar a las empresas discográficas 26 millones de dólares por daños y otros 10 millones de dólares por futuras licencias.

El baterista de Metallica, Lars Ulrich fue el primer famoso en enjuiciar a Napster por derechos de autor.

Censuras Filesharing y Pornografia



Filesharing

GNUnet es un marco para redes entre pares seguras que no utiliza servicios centrales ni confiables. Este marco ofrece cifrado a nivel de capa de red y localización de recursos. Los pares de GNUnet monitorizan el comportamiento de otros pares, con respecto al uso de recursos; los pares que contribuyen a la red son recompensados con un mejor servicio.

El código fuente se ha escrito en C, pero con Freeway hay un esfuerzo para producir una versión compatible escrita en Java. Actualmente GNUnet funciona bajo Linux, BSD, Mac OS X, Solaris y Windows.

afs (anonymous file sharing) [editar]La aplicación principal es el anonimato, resistente a la censura file-sharing, permitiendo a los usuarios publicar o buscar anónimamente información de cualquier tipo.


Pornografia

Libertad, pornografía y censura
http://www.caravantes.com/cv/censura.htm
Junio 1998. Antonio Caravantes (antonio @ caravantes.com)

Cualquier internauta puede emitir información a través de una página web o en un mensaje dirigido a un grupo de noticias. Y esas informaciones serán publicadas sin pasar filtros de calidad, estilo o moralidad. El propio usuario se convierte en editor, y solo él es el responsable de lo que publica, igual que el receptor es el único responsable de consultar unas u otras cosas. Esto supone un sistema de comunicaciones realmente libre que jamás ha tenido precedente.

El éxito de la publicación -el número de lectores- depende sobre todo de la simple aceptación que esa información pueda tener en el resto del colectivo, independientemente de lo que se considera como deseable por la mayoría de la sociedad. Por ejemplo, las páginas web con pornografía suelen tener bastante público, aunque un buen sector social considere que ese contenido es inmoral en alguna medida. De hecho hay muchos sitios web que cobran por mostrar imágenes pornográficas y eso tiene más clientes que otro tipo de materiales informativos igualmente vendibles.

En los últimos años se ha iniciado una dura batalla para limitar los contenidos sexuales transmitidos por Internet que supuestamente puedan perjudicar a los más jóvenes. Pero hasta ahora todos los intentos han fracasado porque no se ha encontrado la forma de consensuar esos planteamientos ni tampoco ha habido manera de crear restricciones que estuviesen dentro de la legalidad constitucional imperante en las democracias occidentales. El principal problema está en que no existe un límite definido entre la pornografía y el arte, entre la el sexo y la anatomía, entre el erotismo y la literatura.

La mayoría de nosotros tenemos una idea aproximada de lo que personalmente meteríamos en unas y otras áreas de las que se han mencionado. Pero también es cierto que casi todos somos incapaces de construir un conjunto de reglas que permitan delimitar esas fronteras con suficiente nitidez para que esos criterios sean aplicados posteriormente a todos los contenidos posibles, con rigor e imparcialidad. Seguramente es cierto que el acceso a ciertas informaciones puede afectar al desarrollo de los adolescentes, especialmente si ese acceso va acompañado de una sensación de prohibición o de inmoralidad que aumente el morbo de la consulta y fomente la culpabilidad del receptor. Hay otros factores a tener en cuenta:

Los contenidos que quieren censurarse en Internet están igualmente accesibles en los kioscos, pero es infrecuente que se discuta el bloqueo de esos materiales impresos. Por otro lado, los defensores de la moralidad centran sus críticas en las páginas web con fotografías, cuando -en mi opinión- hay textos más conflictivos que la peor de las imágenes; pocos se preocupan por los peliagudos escritos que se publican en el web o en los foros de noticias. Y también son escasas las críticas contra contenidos violentos que son aún más peligrosos para los adolescentes, según dicen los psicólogos y los criminalistas. Tal vez la supuesta defensa de la decencia juvenil solo sea una forma de encubrir la incapacidad que existe en un sector social para asumir los riesgos de la verdadera libertad.

Todos podemos encontrar en Internet informaciones que popularmente serían consideradas como aburridas, obsoletas, literariamente malas o plagadas de defectos lingüísticos; pero nadie se plantea censurar eso. Ya no sé si el conflicto es de Internet... o el sexo es un problema en sí mismo. Creo que la solución pasa por desdramatizar y despenalizar moralmente esos contenidos sexuales, para que dejen de ser un apetecible pecado y empiecen a considerarse como algo intrascendente que no merece una atención especial. Si a alguien le gusta el sexo en demasía, eso es problema suyo y de su psiquiatra, no del que genera esa información ni de la red que la transmite.

En esta discusión, creo que los únicos que lo tienen realmente claro son los sistemas integristas: bajo un régimen talibán no hay caso para la polémica, igual que tampoco lo había en la España dictatorial de Franco ni en la oscura etapa en que dominaba la Santa Inquisición. Pero corren otros tiempos, y ahora el premio (Príncipe de Asturias) se lo llevan quienes defienden la igualdad y la libertad de hombres, mujeres y niños. Si alguien se atreve a decidir lo que otro puede consultar, tal vez deba asumir que nació demasiado tarde o en el sitio equivocado.

Capas ISO



Modelo OSI

El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) lanzado en 1984 fue el modelo de red descriptivo creado por ISO.

Historia
A principios de la década de 1980 el desarrollo de redes sucedió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y el tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnología de networking, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.

Para mediados de la década de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de networking privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controla todo uso de la tecnología. Las tecnologías de networking que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.

Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de networking como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.


Modelo de referencia OSI
Siguiendo el esquema de este modelo se crearon numerosos protocolos, por ejemplo X.25, que durante muchos años ocuparon el centro de la escena de las comunicaciones informáticas. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo sigue siendo muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones (sin importar su poca correspondencia con la realidad).

El modelo en sí mismo no puede ser considerado una arquitectura, ya que no especifica el protocolo que debe ser usado en cada capa, sino que suele hablarse de modelo de referencia. Este modelo está dividido en siete capas formado por el ingeniro de sistemas y electronico cibriant david.


Capa Física (Capa 1)
La Capa Física del modelo de referencia OSI es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico (medios guiados: cable coaxial, cable de par trenzado, fibra óptica y otros tipos de cables; medios no guiados: radio, infrarrojos, microondas, láser y otras redes inalámbricas); características del medio (p.e. tipo de cable o calidad del mismo; tipo de conectores normalizados o en su caso tipo de antena; etc.) y la forma en la que se transmite la información (codificación de señal, niveles de tensión/intensidad de corriente eléctrica, modulación, tasa binaria, etc.)

Es la encargada de transmitir los bits de información a través del medio utilizado para la transmisión. Se ocupa de las propiedades físicas y características eléctricas de los diversos componentes; de la velocidad de transmisión, si ésta es uni o bidireccional (símplex, dúplex o full-dúplex). También de aspectos mecánicos de las conexiones y terminales, incluyendo la interpretación de las señales eléctricas/electromagnéticas.

Se encarga de transformar una trama de datos proveniente del nivel de enlace en una señal adecuada al medio físico utilizado en la transmisión. Estos impulsos pueden ser eléctricos (transmisión por cable) o electromagnéticos (transmisión sin cables). Estos últimos, dependiendo de la frecuencia / longitud de onda de la señal pueden ser ópticos, de micro-ondas o de radio. Cuando actúa en modo recepción el trabajo es inverso; se encarga de transformar la señal transmitida en tramas de datos binarios que serán entregados al nivel de enlace.

Sus principales funciones se pueden resumir como:

Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas/electromagnéticas
Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de ésta).

Codificación de la señal [editar]El nivel físico recibe una trama binaria que debe convertir a una señal eléctrica, electromagnética u otra dependiendo del medio, de tal forma que a pesar de la degradación que pueda sufrir en el medio de transmisión vuelva a ser interpretable correctamente en el receptor.

En el caso más sencillo el medio es directamente digital, como en el caso de las fibras ópticas, dado que por ellas se transmiten pulsos de luz.

Cuando el medio no es digital hay que codificar la señal, en los casos más sencillos la codificación puede ser por pulsos de tensión (PCM o Pulse Code Modulatión) (por ejemplo 5 V para los "unos" y 0 V para los "ceros"), es lo que se llaman codificación unipolar RZ. Otros medios se codifican mediante presencia o ausencia de corriente. En general estas codificaciones son muy simples y no usan bien la capacidad de medio. Cuando se quiere sacar más partido al medio se usan técnicas de modulación más complejas, y suelen ser muy dependientes de las características del medio concreto.

En los casos más complejos, como suelen ser las comunicaciones inalámbricas, se pueden dar modulaciones muy sofisticadas, este es el caso de los estándares Wi-Fi, con técnicas de modulación complejas de espectro ensanchado


Topología y medios compartidos [editar]Indirectamente el tipo de conexión que se haga en la capa física puede influir en el diseño de la capa de Enlace. Atendiendo al número de equipos que comparten un medio hay dos posibilidades:

Conexiones punto a punto: que se establecen entre dos equipos y que no admiten ser compartidas por terceros
Conexiones multipunto: en la que más de dos equipos pueden usar el medio.
Así por ejemplo la fibra óptica no permite fácilmente conexiones multipunto (sin embargo, véase FDDI) y por el contrario las conexiones inalámbricas son inherentemente multipunto (sin embargo, véanse los enlaces infrarrojos). Hay topologías como el anillo, que permiten conectar muchas máquinas a partir de una serie de conexiones punto a punto.


Equipos adicionales [editar]A la hora de diseñar una red hay equipos adicionales que pueden funcionar a nivel físico, se trata de los repetidores, en esencia se trata de equipos que amplifican la señal, pudiendo también regenerarla. En las redes Ethernet con la opción de cableado de par trenzado (la más común hoy por hoy) se emplean unos equipos de interconexión llamados concentradores (repetidores en las redes 10Base-2) más conocidos por su nombre en inglés (hubs) que convierten una topología física en estrella en un bus lógico y que actúan exclusivamente a nivel físico, a diferencia de los conmutadores (switches) que actúan a nivel de enlace.


Capa de enlace de datos (Capa 2)
Artículo principal: Nivel de enlace de datos
Cualquier medio de transmisión debe ser capaz de proporcionar una transmisión sin errores, es decir, un tránsito de datos fiable a través de un enlace físico. Debe crear y reconocer los límites de las tramas, así como resolver los problemas derivados del deterioro, pérdida o duplicidad de las tramas. También puede incluir algún mecanismo de regulación del tráfico que evite la saturación de un receptor que sea más lento que el emisor.

La capa de enlace de datos se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.

Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo. La tarjeta que se encarga que tengamos conexión es la tarjeta MAC (control de acceso al medio) y la LLC (control de enlace lógico).

La PDU de la capa 2 es la trama.


Capa de red (Capa 3)
Artículo principal: Nivel de red
El cometido de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan en castellano encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.

Adicionalmente la capa de red debe gestionar la congestión de red, que es el fenómeno que se produce cuando una saturación de un nodo tira abajo toda la red (similar a un atasco en un cruce importante en una ciudad grande). La PDU de la capa 3 es el paquete.

Los switch también pueden trabajar en esta capa dependiendo de la función que se le asigne.


Capa de transporte (Capa 4)
Artículo principal: Nivel de transporte
Su función básica es aceptar los datos enviados por las capas superiores, dividirlos en pequeñas partes si es necesario, y pasarlos a la capa de red. En el caso del modelo OSI, también se asegura que lleguen correctamente al otro lado de la comunicación. Otra característica a destacar es que debe aislar a las capas superiores de las distintas posibles implementaciones de tecnologías de red en las capas inferiores, lo que la convierte en el corazón de la comunicación. En esta capa se proveen servicios de conexión para la capa de sesión que serán utilizados finalmente por los usuarios de la red al enviar y recibir paquetes. Estos servicios estarán asociados al tipo de comunicación empleada, la cual puede ser diferente según el requerimiento que se le haga a la capa de transporte. Por ejemplo, la comunicación puede ser manejada para que los paquetes sean entregados en el orden exacto en que se enviaron, asegurando una comunicación punto a punto libre de errores, o sin tener en cuenta el orden de envío. Una de las dos modalidades debe establecerse antes de comenzar la comunicación para que una sesión determinada envíe paquetes, y ése será el tipo de servicio brindado por la capa de transporte hasta que la sesión finalice. De la explicación del funcionamiento de esta capa se desprende que no está tan encadenada a capas inferiores como en el caso de las capas 1 a 3, sino que el servicio a prestar se determina cada vez que una sesión desea establecer una comunicación. Todo el servicio que presta la capa está gestionado por las cabeceras que agrega al paquete a transmitir.

Para finalizar, podemos definir a la capa de transporte como:

Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmentos.


Capa de sesión (Capa 5)
Esta capa ofrece varios servicios que son cruciales para la comunicación, como son:

1 Control de la sesión a establecer entre el emisor y el receptor (quién transmite, quién escucha y seguimiento de ésta).

2 Control de la concurrencia (que dos comunicaciones a la misma operación crítica no se efectúen al mismo tiempo).

3 Mantener puntos de verificación (checkpoints), que sirven para que, ante una interrupción de transmisión por cualquier causa, la misma se pueda reanudar desde el último punto de verificación en lugar de repetirla desde el principio.

Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcialmente, o incluso, totalmente prescindibles.

En conclusión esta capa es la que se encarga de mantener el enlace entre los dos computadores que estén trasmitiendo archivos.


Capa de presentación (Capa 6)
El objetivo de la capa de presentación es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres (ASCII, Unicode, EBCDIC), números (little-endian tipo Intel, big-endian tipo Motorola), sonido o imágenes, los datos lleguen de manera reconocible.

Esta capa es la primera en trabajar más el contenido de la comunicación que cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.

Por lo tanto, podemos resumir definiendo a esta capa como la encargada de manejar las estructuras de datos abstractas y realizar las conversiones de representación de datos necesarias para la correcta interpretación de los mismos.

Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor


Capa de aplicación (Capa 7)
Ofrece a las aplicaciones(de usuario o no) la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.

Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente. Así por ejemplo un usuario no manda una petición "HTTP/1.0 GET index.html" para conseguir una página en html, ni lee directamente el código html/xml.

Entre los protocolos (refiriéndose a protocolos genéricos, no a protocolos de la capa de aplicación de OSI) más conocidos destacan:

HTTP (HyperText Transfer Protocol) el protocolo bajo la www
FTP (File Transfer Protocol) ( FTAM, fuera de TCP/IP) transferencia de ficheros
SMTP (Simple Mail Transfer Protocol) (X.400 fuera de tcp/ip) envío y distribución de correo electrónico
POP (Post Office Protocol)/IMAP: reparto de correo al usuario final
SSH (Secure SHell) principalmente terminal remoto, aunque en realidad cifra casi cualquier tipo de transmisión.
Telnet otro terminal remoto, ha caído en desuso por su inseguridad intrínseca, ya que las claves viajan sin cifrar por la red.
Hay otros protocolos de nivel de aplicación que facilitan el uso y administración de la red:

SNMP (Simple Network Management Protocol)
DNS (Domain Name System)

ICANN



ICANN es el acrónimo en inglés de Internet Corporation for Assigned Names and Numbers o Corporación de Internet para la Asignación de Nombres y Números. Es una organización sin ánimo de lucro creada el 18 de septiembre de 1998 con objeto de encargarse de cierto número de tareas realizadas con anterioridad a esa fecha por otra organización, la IANA.

Las atribuciones de la ICANN vinieron dadas por el departamento de comercio de los Estados Unidos bajo la figura de adjudicación directa y única; es decir, no se permitió a ningún organismo o empresa adicional presentar ofertas para la adjudicación de las tareas. Dichas tareas incluyen la gestión de la asignación de nombres de dominio de primer nivel y direcciones IP. Hasta la fecha, casi todo el esfuerzo realizado ha estado involucrado con la creación de 7 nuevos dominios genéricos de primer nivel. Sus actuaciones han sido controvertidas.

Desde el 27 de marzo de 2003, Paul Twomey es el presidente de la ICANN.

La ICANN mantiene congresos públicos periódicamente con objeto de expresar su deseo de mantenerse al tanto de las necesidades de sus miembros. Voces críticas señalan sin embargo que los lugares de encuentro se fijan asiduamente en países con un índice desproporcionadamente bajo de accesos a Internet y lo suficientemente distante del segmento de mayores accesos como para que no puedan permitirse llegar a los mismos limitando así su presencia.

En septiembre y octubre de 2003, la ICANN desempeñó un papel crucial en el conflicto que mantuvo la empresa VeriSign y su cuestionado servicio de DNS Site Finder. Tras una carta abierta de la ICANN, conteniendo un ultimátum contra VeriSign, la compañía cerró finalmente el servicio el 27 de febrero de 2004 alegando que la ICANN había sobrepasado su autoridad y atribuciones.

Internet




Internet es un método de interconexión descentralizada de redes de computadoras implementado en un conjunto de protocolos denominado TCP/IP y garantiza que redes físicas heterogéneas funcionen como una red lógica única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se estableció la primera conexión de computadoras, conocida como ARPANET, entre tres universidades en California y una en Utah, EE.UU.

Al contrario de lo que se piensa comúnmente, Internet no es sinónimo de World Wide Web (WWW, o "la Web"). Ésta es parte de Internet, siendo uno de los muchos servicios ofertados en la red Internet. La Web es un sistema de información mucho más reciente, desarrollado inicialmente por Tim Berners Lee en 1989. El WWW utiliza Internet como medio de transmisión.

Algunos de los servicios disponibles en Internet, aparte de la Web, son el acceso remoto a otras máquinas (SSH y telnet), la transferencia de archivos (FTP), el correo electrónico (SMTP y POP), los boletines electrónicos (news o grupos de noticias), las conversaciones en línea (IRC y chats), la mensajería instantánea y la transmisión de archivos (P2P, P2M, Descarga Directa).

El género de la palabra Internet es ambiguo según el Diccionario de la Real Academia Española. Sin embargo, al ser "Internet" un nombre propio, se recomienda no usar artículo alguno.

Historia
Artículo principal: Historia de Internet
1969, DARPA comienza a planificar la creación de una red que conecte computadores en caso de una eventual guerra atómica que incomunique a los humanos sobre la tierra, con fines principalmente de defensa.

1972, se realizó la Primera demostración pública de ARPANET, una nueva Red de comunicaciones financiada por la DARPA que funcionaba de forma distribuida sobre la red telefónica conmutada. El éxito de ésta nueva arquitectura sirvió para que, en 1973, la DARPA iniciara un programa de investigación sobre posibles técnicas para interconectar redes (orientadas al tráfico de paquetes) de distintas clases. Para este fin, desarrollaron nuevos protocolos de comunicaciones que permitiesen este intercambio de información de forma "transparente" para las computadoras conectadas. De la filosofía del proyecto surgió el nombre de "Internet", que se aplicó al sistema de redes interconectadas mediante los protocolos TCP e IP.

1983, el 1 de enero, ARPANET cambió el protocolo NCP por TCP/IP. Ese mismo año, se creó el IAB con el fin de estandarizar el protocolo TCP/IP y de proporcionar recursos de investigación a Internet. Por otra parte, se centró la función de asignación de identificadores en la IANA que, más tarde, delegó parte de sus funciones en el Internet registry que, a su vez, proporciona servicios a los DNS.

1986, la NSF comenzó el desarrollo de NSFNET que se convirtió en la principal Red en árbol de Internet, complementada después con las redes NSINET y ESNET, todas ellas en Estados Unidos. Paralelamente, otras redes troncales en Europa, tanto públicas como comerciales, junto con las americanas formaban el esqueleto básico ("backbone") de Internet.

1989, con la integración de los protocolos OSI en la arquitectura de Internet, se inició la tendencia actual de permitir no sólo la interconexión de redes de estructuras dispares, sino también la de facilitar el uso de distintos protocolos de comunicaciones.

En el CERN de Ginebra, un grupo de Físicos encabezado por Tim Berners-Lee, crearon el lenguaje HTML, basado en el SGML. En 1990 el mismo equipo construyó el primer cliente Web, llamado WorldWideWeb (WWW), y el primer servidor web.

2006, el 3 de enero, Internet alcanzó los mil cien millones de usuarios. Se prevé que en diez años, la cantidad de navegantes de la Red aumentará a 2.000 millones.[cita requerida]

En julio de 1961 Leonard Kleinrock publicó desde el MIT el primer documento sobre la teoría de conmutación de paquetes. Kleinrock convenció a Lawrence Roberts de la factibilidad teórica de las comunicaciones vía paquetes en lugar de circuitos, lo cual resultó ser un gran avance en el camino hacia el trabajo informático en red. El otro paso fundamental fue hacer dialogar a los ordenadores entre sí. Para explorar este terreno, en 1965, Roberts conectó una computadora TX2 en Massachusetts con un Q-32 en California a través de una línea telefónica conmutada de baja velocidad, creando así la primera (aunque reducida) red de computadoras de área amplia jamás construida. En los EE.UU. se estaba buscando una forma de mantener las comunicaciones vitales del país en el posible caso de una Guerra Nuclear. Este hecho marcó profundamente su evolución, ya que aún ahora los rasgos fundamentales del proyecto se hallan presentes en lo que hoy conocemos como Internet.


Internet y sociedad

Sitios de Internet por países.Internet tiene un impacto profundo en el trabajo, el ocio y el conocimiento. Gracias a la web, millones de personas tienen acceso fácil e inmediato a una cantidad extensa y diversa de información en línea. Un ejemplo de esto es el desarrollo y la distribución de colaboración del software de Free/Libre/Open-Source (SEDA) por ejemplo GNU, Linux, Mozilla y OpenOffice.org.

Comparado a las enciclopedias y a las bibliotecas tradicionales, la web ha permitido una descentralización repentina y extrema de la información y de los datos. Algunas compañías e individuos han adoptado el uso de los weblogs, que se utilizan en gran parte como diarios actualizables. Algunas organizaciones comerciales animan a su personal para incorporar sus áreas de especialización en sus sitios, con la esperanza de que impresionen a los visitantes con conocimiento experto e información libre.

Internet ha llegado a gran parte de los hogares y de las empresas de los países ricos, en este aspecto se ha abierto una brecha digital con los países pobres, en los cuales la penetración de Internet y las nuevas tecnologías es muy limitada para las personas.

Desde una perspectiva cultural del conocimiento, Internet ha sido una ventaja y una responsabilidad. Para la gente que está interesada en otras culturas proporciona una cantidad significativa de información y de una interactividad que sería inasequible de otra manera.


Internet y su evolución
Antes Internet nos servía para un objetivo claro. Navegábamos en Internet para algo muy concreto.

Ahora quizás también, pero sin duda alguna hoy nos podemos perder por el inmenso abanico de posibilidades que nos brinda la Red. Hoy en día, la sensación que nos produce Internet es un ruido interferencias una explosión cúmulo de ideas distintas, de personas diferentes, de pensamientos distintos de tantas y tantas posibilidades que para una mente pueda ser excesivo.

El crecimiento o más bien la incorporación de tantas personas a la Red hace que las calles de lo que en principio era una pequeña ciudad llamada Internet se conviertan en todo un planeta extremadamente conectado entre sí entre todos sus miembros.

El hecho de que Internet haya aumentado tanto implica una mayor cantidad de relaciones entre personas, aunque virtuales. Así ahora sabemos que nos relacionamos más virtualmente y menos personalmente, conociendo este hecho y relacionándolo con la felicidad originada por las relaciones personales, podemos concluir que cuando una persona tenga una necesidad de conocimiento popular o de conocimiento no escrito en libros recurrirá a la fuente más fiable, más acorde a su necesidad y más accesible que le sea posible. Como ahora esta fuente es posible en Internet dicha persona preferirá prescindir del obligado protocolo que hay que cumplir a la hora de acercarse a alguien personalmente para obtener dicha información y por ello no establecerá una relación personal sino virtual, sólo por ese motivo disminuirán las relaciones personales con respecto al pasado más inmediato. Este hecho lejos de ser perjudicial para la especie humana, implica la existencia de un medio capaz de albergar soluciones para problemas que antes eran mucho más difíciles de resolver.

Como toda gran revolución Internet augura una nueva era de diferentes métodos de resolución de problemas creados a partir de soluciones anteriores. Internet produce la sensación que todos hemos sentido alguna vez, produce la esperanza que necesitamos cuando queremos conseguir algo. Es un despertar de intenciones que jamás antes la tecnología había logrado en la población mundial. Genera una sensación de cercanía, empatía, comprensión, y a la vez de confusión, discusión, lucha y conflictos que no queda otra que afirmar que Internet es como la vida misma.

martes, 30 de octubre de 2007

Familia de Protocolos de Internet TCP/IP




La familia de protocolos de Internet es un conjunto de protocolos de red en la que se basa Internet y que permiten la transmisión de datos entre redes de computadoras. En ocasiones se la denomina conjunto de protocolos TCP/IP, en referencia a los dos protocolos más importantes que la componen: Protocolo de Control de Transmisión (TCP) y Protocolo de Internet (IP), que fueron los dos primeros en definirse, y que son los más utilizados de la familia. Existen tantos protocolos en este conjunto que llegan a ser más de 100 diferentes, entre ellos se encuentra el popular HTTP (HyperText Transfer Protocol), que es el que se utiliza para acceder a las páginas web, además de otros como el ARP (Address Resolution Protocol) para la resolución de direcciones, el FTP (File Transfer Protocol) para transferencia de archivos, y el SMTP (Simple Mail Transfer Protocol) y el POP (Post Office Protocol) para correo electrónico, TELNET para acceder a equipos remotos, entre otros.

El TCP/IP es la base de Internet, y sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local (LAN) y área extensa (WAN). TCP/IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en ARPANET, una red de área extensa del departamento de defensa.

La familia de protocolos de internet puede describirse por analogía con el modelo OSI, que describe los niveles o capas de la pila de protocolos, aunque en la práctica no corresponde exactamente con el modelo en Internet. En una pila de protocolos, cada nivel soluciona una serie de problemas relacionados con la transmisión de datos, y proporciona un servicio bien definido a los niveles más altos. Los niveles superiores son los más cercanos al usuario y tratan con datos más abstractos, dejando a los niveles más bajos la labor de traducir los datos de forma que sean físicamente manipulables.

El modelo de Internet fue diseñado como la solución a un problema práctico de ingeniería. El modelo OSI, en cambio, fue propuesto como una aproximación teórica y también como una primera fase en la evolución de las redes de ordenadores. Por lo tanto, el modelo OSI es más fácil de entender, pero el modelo TCP/IP es el que realmente se usa. Sirve de ayuda entender el modelo OSI antes de conocer TCP/IP, ya que se aplican los mismos principios, pero son más fáciles de entender en el modelo OSI.

Niveles en la pila TCP/IP [editar]Hay algunas discusiones sobre como encaja el modelo TCP/IP dentro del modelo OSI. Como TCP/IP y modelo OSI no están delimitados con precisión no hay una respuesta que sea la correcta.

El modelo TCP/IP no está lo suficientemente dotado en los niveles inferiores como para detallar la auténtica estratificación en niveles: necesitaría tener una capa extra (el nivel de Interred) entre los niveles de transporte y red. Protocolos específicos de un tipo concreto de red, que se sitúan por encima del marco de hardware básico, pertenecen al nivel de red, pero sin serlo. Ejemplos de estos protocolos son el ARP (Protocolo de resolución de direcciones) y el STP (Spanning Tree Protocol). De todas formas, estos son protocolos locales, y trabajan por debajo de las capas de Interred. Cierto es que situar ambos grupos (sin mencionar los protocolos que forman parte del nivel de Interred pero se sitúan por encima de los protocolos de Interred, como ICMP) todos en la misma capa puede producir confusión, pero el modelo OSI no llega a ese nivel de complejidad para ser más útil como modelo de referencia.

DNS



On the Internet, the Domain Name System (DNS) associates various sorts of information with so-called domain names; most importantly, it serves as the "phone book" for the Internet by translating human-readable computer hostnames, e.g. en.wikipedia.org, into the IP addresses, e.g. 66.230.200.100, that networking equipment needs to deliver information. It also stores other information such as the list of mail exchange servers that accept email for a given domain. In providing a worldwide keyword-based redirection service, the Domain Name System is an essential component of contemporary Internet use.

Uses
The most basic task of DNS is to translate hostnames to IP addresses. In very simple terms, it can be compared to a phone book. For example, if you want to know the internet address of en.wikipedia.org, DNS can tell you that it is 145.97.39.155. DNS also has other important uses.

Preeminently, DNS makes it possible to assign Internet names to organizations or concern they represent, independently of the physical routing hierarchy represented by the numerical IP address. Because of this, hyperlinks and Internet contact information can remain the same, whatever the current IP routing arrangements may be, and can take a human-readable form (such as "wikipedia.org") which is rather easier to remember than an IP address (such as 66.230.200.100). People take advantage of this when they recite meaningful URLs and e-mail addresses without caring how the machine will actually locate them.

The Domain Name System (DNS) distributes the responsibility for assigning domain names and mapping them to IP networks by allowing an authoritative server for each domain to keep track of its own changes, avoiding the need for a central registrar to be continually consulted and updated.

History
The practice of using a name as a more human-legible abstraction of a machine's numerical address on the network predates even TCP/IP, and goes all the way to the ARPAnet era. Back then however, a different system was used, as DNS was only invented in 1983, shortly after TCP/IP was deployed. With the older system, each computer on the network retrieved a file called HOSTS.TXT from a computer at SRI (now SRI International). The HOSTS.TXT file mapped numerical addresses to names. A hosts file still exists on most modern operating systems, either by default or through configuration, and allows users to specify an IP address (eg. 192.0.34.166) to use for a hostname (eg. www.example.net) without checking DNS. As of 2006, the hosts file serves primarily for troubleshooting DNS errors or for mapping local addresses to more organic names. Systems based on a hosts file have inherent limitations, because of the obvious requirement that every time a given computer's address changed, every computer that seeks to communicate with it would need an update to its hosts file.

The growth of networking called for a more scalable system: one that recorded a change in a host's address in one place only. Other hosts would learn about the change dynamically through a notification system, thus completing a globally accessible network of all hosts' names and their associated IP Addresses.

At the request of Jon Postel, Paul Mockapetris invented the Domain Name System in 1983 and wrote the first implementation. The original specifications appear in RFC 882 and 883. In November 1987, the publication of RFC 1034 and RFC 1035 updated the DNS specification[1] and made RFC 882 and RFC 883 obsolete. Several more-recent RFCs have proposed various extensions to the core DNS protocols.

In 1984, four Berkeley students — Douglas Terry, Mark Painter, David Riggle and Songnian Zhou — wrote the first UNIX implementation, which was maintained by Ralph Campbell thereafter. In 1985, Kevin Dunlap of DEC significantly re-wrote the DNS implementation and renamed it BIND (Berkeley Internet Name Domain, previously: Berkeley Internet Name Daemon). Mike Karels, Phil Almquist and Paul Vixie have maintained BIND since then. BIND was ported to the Windows NT platform in the early 1990s.

Due to BIND's long history of security issues and exploits, several alternative nameserver/resolver programs have been written and distributed in recent years.

lunes, 29 de octubre de 2007

World Wide Web



World Wide Web (o la "Web") es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza sitios Web, forjados de páginas Web que pueden contener texto, imágenes u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.

La Web fue creada alrededor de 1990 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.

Historia [editar]
Artículo principal: Historia de World Wide Web
Este NeXTcube usado por Berners-Lee en el CERN se convirtió en el primer servidor web.
Este NeXTcube usado por Berners-Lee en el CERN se convirtió en el primer servidor web.

La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuido con un interface operativo que permite el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de MEMEX. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.

En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la propuesta [2] , que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web [3] el 12 de noviembre de 1990.

Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee había creado todas las herramientas necesarias para que una web funcionase[4] : el primer navegador web (el cual también era un editor web), el primer servidor web y las primeras páginas web[5] que al mismo tiempo describían el proyecto.

El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroup[6] alt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet.

El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado sistema basado en microfilm "memex", de Vannevar Bush.

El gran avance de Berners-Lee fué unir hipertexto e Internet. En su libro Weaving the Web (en castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también: el Uniform Resource Identifier.

World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban disponibles en aquel momento:

* WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso. Con ello se reducía significativamente la dificultad de implementar servidores web y navegadores (en comparación con los sistemas anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.
* A diferencia de sus predecesores, como HyperCard, World Wide Web era no-propietario, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia.

El 30 de abril de 1993, el CERN anunció[7] que la web sería gratuita para todos, sin ningún tipo de honorarios.

ViolaWWW fué un navegador bastante popular en los comienzos de la web que estaba basado en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la World Wide Web comenzó con la introducción[8] del navegador[9] web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore High Performance Computing and Communication Act of 1991, también conocida como la Gore Bill[10] . Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. El interfaz gráfico de usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de una manera fulgurante.

ARPANET




La red de computadoras "ARPANET" (Advanced Research Projects Agency Network) fue creada por encargo del Departamento de Defensa de los Estados Unidos como medio de comunicación para los diferentes organismos del país. El primer nodo[1]se creó en la Universidad de California y fue la espina dorsal de Internet hasta 1990, tras finalizar la transición al protocolo TCP/IP en 1983.


Trasfondo

El concepto de una red de computadoras capaz de comunicar usuarios en distintas computadoras fue formulado por J.C.R. Licklider de Bolt, Beranek and Newman (BBN) en agosto de 1962, en una serie de notas que discutían la idea de "Red Galáctica".

En octubre del mismo año, Licklider fue convocado por ARPA (Agencia de Investigación de Proyectos Avanzados) perteneciente al Departamento de Defensa de los Estados Unidos. En este foro, convenció a Ivan Sutherland y Bob Taylor de la importancia del concepto antes de abandonar la agencia, y antes de que se iniciara trabajo alguno.

Mientras tanto, Paul Baran estaba trabajando desde 1959 en la RAND Corporation en una red segura de comunicaciones capaz de sobrevivir a un ataque con armas nucleares, con fines militares.

Sus resultados se publicaron a partir de 1960, y en ellos se describían dos ideas clave:

* El uso de una red descentralizada con múltiples caminos entre dos puntos.
* La división de mensajes completos en fragmentos que seguirían caminos distintos. La red estaría capacitada para responder ante sus propios fallos.

El resumen final de este esquema se presentó en 1962 y se publicó en 1964.

En la misma época, Leonard Kleinrock ya trabajaba en el concepto de almacenar y reenviar mensajes en su tesis doctoral en el MIT. Esto incluía un importante análisis de la teoría de colas aplicada a las redes de comunicaciones (publicado como libro en 1964). Su trabajo aún no incluía la idea de fragmentación en paquetes.

Por último, Donal Davies, del Laboratorio Nacional de Física comenzó a relacionar todos estos conceptos en 1965, después de asistir a una conferencia en el Reino Unido sobre multiplexación en el tiempo. Su investigación tuvo lugar independientemente de los trabajos de Baran, de los que no tuvo conocimiento hasta 1966. Casualmente, fue Davies quien empezó a usar el término "paquete".

En este estado de las cosas, cuatro centros de investigación independientes (DARPA, la corporación RAND, el MIT y NPL en el Reino Unido) acabarían convirtiéndose en los primeros nodos experimentales de ARPANET.

Orígenes

Mientras todo esto ocurría, ARPA y Taylor seguían interesados en crear una red de ordenadores. Al final de 1966, Taylor contactó a Lawrence G. Roberts (del Laboratorio Lincoln, en el MIT) con el objeto de que liderase el proyecto de creación de la nueva red. Roberts ya conocía a Davies gracias a la mencionada conferencia sobre multiplexación en el tiempo.

El concepto original de Roberts consistía en utilizar la técnica de multiplexación en el tiempo, uniendo máquinas directamente con cables telefónicos. En una de las primeras reuniones (de 1967), muchos participantes no estaban dispuestos a que sus computadoras tuvieran que gestionar líneas telefónicas. Uno de estos participantes, Wesley A. Clark, tuvo la idea de usar pequeños ordenadores separados sólo para gestionar los enlaces de comunicaciones. Esta idea permitió descargar de trabajo a las computadoras principales, además de aislar la red de la distinta naturaleza de cada computadora.

Sobre esta base comenzó el diseño inicial de ARPANET. Roberts presentó su primer plan en un simposio de 1967. En este mismo evento se encontraba presente Roger Scantlebury, colaborador de Davies. Gracias a este encuentro discutieron la idea de la conmutación de paquetes, y permitió a Roberts conocer el trabajo de Baran.

Nacimiento de ARPANET

En el verano de 1968 ya existía un plan completo y aprobado por ARPA. De manera que se celebró un concurso con 140 potenciales proveedores. Sin embargo, solamente 12 de ellos presentaron propuestas. En 1969, el contrato se adjudicó a BBN (donde había trabajado Lickliderel, creador del concepto de Red Galáctica).

La oferta de BBN seguía el plan de Roberts a rajatabla. Los pequeños ordenadores se denominaron Procesadores del interfaz de mensajes (IMPs). Éstos implementaban la técnica de almacenar y reenviar y utilizaban un modem telefónico para conectarse a otros equipos (a una velocidad de 50 kbits por segundo). Los ordenadores centrales se conectaban a los IMPs mediante interfaces serie a medida.

Los IMP se implementaron inicialmente con ordenadores DDP-516 de Honeywell. Contaban con 24 kilobytes de memoria principal con capacidad para conectar un máximo de cuatro ordenadores centrales, y comunicarlos con otros seis IMP remotos. BBN tuvo disponible todo el hardware y el software necesario en tan sólo nueve meses.

Primer despliegue

La ARPANET inicial consistía en cuatro IMP instalados en:

* UCLA, donde Kleinrock creó el Centro de medición de red. Un ordenador SDS Sigma 7 fue el primero en conectarse.
* El Augmentation Research Center en el Instituto de investigación de Standford, donde Doug Engelbart creó el novedoso sistema NLS, un incipiente sistema de hipertexto. Un ordenador SDS 940 fue el primero en conectarse.
* La Universidad de California, con un IBM 360.
* El Departamento Gráfico de la Universidad de Utah, donde Ivan Sutherland se trasladó. Con un PDP-10 inicialmente conectado.

El primer enlace de ARPANET se estableció el 21 de noviembre de 1969 entre UCLA y Stanford. el 5 de diciembre del mismo año, toda la red inicial estaba lista.

En marzo de 1970 ARPANET cruzó hasta la costa Este cuando la propia BBN se unió a la red. En 1971 ya existían 23 ordenadores conectados, pertenecientes a universidades y centros de investigación. Este número creció hasta 213 ordenadores en 1981 con una nueva incorporación cada 20 días en media.

Software desarrollado

En 1972, Ray Tomlinson de la BBN inventó el correo electrónico. En 1973, el protocolo FTP ya estaba definido e implementado, facilitando el movimiento de ficheros en ARPANET. Para entonces el 75% del tráfico ya se debía al éxito del correo electrónico. También se especificó un protocolo para transmisión de voz (RFC 741), que llegó a implementarse pero fue un fracaso por motivos técnicos. Esto no vería la luz hasta varias décadas más tarde.

Posteriores mejoras en hardware

En 1970 los circuitos entre IMPs se mejoraron hasta los 230,4 kilobits por segundo. No obstante, esta capacidad no fue muy aprovechada por limitaciones de capacidad de proceso de los IMP, y por motivos de coste.

En 1971 se empezó a utilizar el ordenador H-316 como IMP. También podía utilizarse como Terminal IMP (TIP), ya que facilitaba la conexión de hasta 63 terminales informáticos gracias a un controlador multi-circuito en el lugar donde se conectaría uno de los ordenadores centrales. Éste ya disponia de 40 kilobytes de memoria principal, posteriormente ampliada a 32 y 56 kilobytes en 1973.

En este periodo la red creció muy rápidamente: 9 IMPs en junio de 1970 y otros 13 en diciembre, 18 en septiembre de 1971, 29 en agosto de 1972, y 40 en Septiembre de 1973. En este año, dos enlaces vía satélite permitían la incorporación de Hawaii y Noruega a la red. Además, Noruega también permitía la conexión de Londres gracias a enlaces terrestres. En 1974 ya existían 46 IMPs, alcanzando 57 en 1975.

En 1975, los IMPs fueron sustituidos por los ordenadores Multiprocesador Pluribus de BBN. Posteriormente, quedaron obsoletos en favor del llamado C/30, un diseño a medida construido por BBN. Algunos IMP continuaron en servicio hasta 1989, cuando ARPANET ya había sido desmantelada y reemplazada por NSFNET.

ARPA



ARPA es acrónimo de la expresión en inglés Advanced Research Projects Agency ("Agencia de Proyectos de Investigación Avanzada"), denominación del organismo del Departamento de Defensa de Estados Unidos creado en 1958 como consecuencia tecnológica de la llamada Guerra Fría, y del que surgieron, una década después, los fundamentos de ARPANET, red que dio origen a Internet. La agencia cambió su denominación en 1972, conociéndose en lo sucesivo como DARPA (Defense Advanced Research Projects Agency o "Agencia de Proyectos de Investigación Avanzada de la Defensa").

Compuertas Logicas




Puerta lógica

Una puerta lógica, o compuerta lógica, es un dispositivo electrónico que es la expresión física de un operador booleano en la lógica de conmutación. Cada puerta lógica consiste en una red de dispositivos interruptores que cumple las condiciones booleanas para el operador particular. Son esencialmente circuitos de conmutación integrados en un chip.

Claude Elwood Shannon experimentaba con relés o interruptores electromagnéticos para conseguir las condiciones de cada compuerta lógica, por ejemplo, para la función booleana Y (AND) colocaba interruptores en circuito serie, ya que con uno solo de éstos que tuviera la condición «abierto», la salida de la compuerta Y sería = 0, mientras que para la implementación de una compuerta O (OR), la conexión de los interruptores tiene una configuración en circuito paralelo.

La tecnología microelectrónica actual permite la elevada integración de transistores actuando como conmutadores en redes lógicas dentro de un pequeño circuito integrado. El chip de la CPU es una de las máximas expresiones de este avance tecnológico.

Puerta Y (AND)


Símbolo de la función lógica Y a) Contactos, b) Normalizado y c) No normalizado
Símbolo de la función lógica Y a) Contactos, b) Normalizado y c) No normalizado

La puerta lógica Y, más conocida por su nombre en inglés AND, realiza la función booleana de producto lógico. Su símbolo es un punto (·), aunque se suele omitir. Así, el producto lógico de las variables A y B se indica como AB, y se lee A y B o simplemente A por B.

La ecuación característica que describe el comportamiento de la puerta AND es:

F = AB\,

Su tabla de verdad es la siguiente:
Tabla de verdad puerta AND Entrada A Entrada B Salida AB


Se puede definir la puerta AND, como aquella compuerta que entrega un 1 lógico sólo si todas las entradas están a nivel alto 1.

Puerta O (OR)


Símbolo de la función lógica O a) Contactos, b) Normalizado y c) No normalizado
Símbolo de la función lógica O a) Contactos, b) Normalizado y c) No normalizado

La puerta lógica O, más conocida por su nombre en inglés OR, realiza la operación de suma lógica.

La ecuación característica que describe el comportamiento de la puerta OR es:

F = A + B\,

Su tabla de verdad es la siguiente:
Tabla de verdad puerta OR Entrada A Entrada B Salida A + B

Podemos definir la puerta O como aquella que proporciona a su salida un 1 lógico si al menos una de sus entradas está a 1.

Puerta NO (NOT)


Símbolo de la función lógica NO a) Contactos, b) Normalizado y c) No normalizado
Símbolo de la función lógica NO a) Contactos, b) Normalizado y c) No normalizado

La puerta lógica NO (NOT en inglés) realiza la función booleana de inversión o negación de una variable lógica.

La ecuación característica que describe el comportamiento de la puerta NOT es:

F=\overline{A}\,

Su tabla de verdad es la siguiente:
Tabla de verdad puerta NOT Entrada A Salida \overline{A}

Se puede definir como una puerta que proporciona el estado inverso del que esté en su entrada.