1         FUNDAMENTOS

 

Autor: Rogelio Montañana

Licencia Creative Commons
Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.

 

1     FUNDAMENTOS. 1-1

1.1      INTRODUCCIÓN.. 1-2

1.1.1       Que es (y que no es) objetivo del curso. 1-2

1.1.2       Telecomunicaciones y Telemática. 1-3

1.1.3       Redes de ordenadores y sistemas distribuidos. 1-3

1.1      USOS DE LAS REDES DE ORDENADORES. 1-4

1.1.1       Uso de las redes en empresas. 1-4

1.1.2       Uso de las redes por particulares. 1-5

1.1.3       Aspectos sociales. 1-6

1.2      TIPOS DE REDES. 1-6

1.2.1       Redes broadcast 1-7

1.2.2       Redes punto a punto. 1-7

1.2.3       Redes de área local (LAN) 1-9

1.2.4       Redes de área metropolitana (MAN) 1-9

1.2.5       Redes de área extensa (WAN) 1-10

1.2.6       Redes inalámbricas y movilidad. 1-11

1.2.7       Internetworking. 1-11

1.3      ARQUITECTURA DE REDES. 1-12

1.3.1       Diseño de arquitecturas de redes. 1-13

1.3.2       Interfaces y servicios. 1-14

1.3.3       Servicios orientados y no orientados a conexión. 1-15

1.3.4       Primitivas de servicio. 1-16

1.4      MODELOS DE REFERENCIA.. 1-17

1.4.1       El modelo de referencia OSI. 1-17

1.4.1.1    La Capa Física. 1-18

1.4.1.2    La capa de enlace (data link) 1-18

1.4.1.3    La capa de red. 1-19

1.4.1.4    La capa de transporte. 1-19

1.4.1.5    La capa de sesión. 1-20

1.4.1.6    La capa de presentación. 1-20

1.4.1.7    La capa de aplicación. 1-20

1.4.1.8    Transmisión de datos en el modelo OSI. 1-20

1.4.2       El modelo de referencia TCP/IP. 1-21

1.4.2.1    La capa host-red. 1-22

1.4.2.2    La capa internet 1-22

1.4.2.3    La capa de transporte. 1-22

1.4.2.4    La capa de aplicación. 1-22

1.4.3       Comparación de los modelos OSI y TCP/IP. 1-23

1.5      TRANSMISIÓN DE DATOS EN REDES WAN.. 1-25

1.5.1       Líneas dedicadas. 1-25

1.5.2       Conmutación de circuitos. 1-26

1.5.3       Conmutación de paquetes. 1-27

1.5.3.1    X.25. 1-28

1.5.3.2    Frame Relay. 1-30

1.5.3.3    ATM y B-ISDN.. 1-31

1.6      ESTÁNDARES. 1-33

1.6.1       La ISO.. 1-34

1.6.2       La ITU-T.. 1-35

1.6.3       Foros industriales. 1-36

1.6.4       Otras organizaciones. 1-37

1.7      EJERCICIOS. 1-38

1.8      SOLUCIONES. 1-40

 


1.1      INTRODUCCIÓN

 

En tan solo unos años las redes de ordenadores han pasado de ser algo esotérico solo conocido y utilizado por unos pocos a ocupar un primer plano en cualquier medio informativo de carácter general. Quizá el protagonismo que actualmente se da a términos como ‘Internet’, ‘autopistas de la información’ o ‘aldea global’ sea más fruto de las modas que de una necesidad real, pero no cabe duda que dichos términos (o al menos las ideas que representan) tendrán un interés creciente en los años venideros y permanecerán con nosotros durante bastante tiempo.

 

Podemos hacer un cierto paralelismo entre la explosión de la Telemática en la década de los noventa y el auge de la Informática personal en los ochenta; sin embargo a pesar de su importancia la aparición del PC no parece comparable a la revolución que está protagonizando la Telemática; la razón estriba en que, a pesar de todo, el PC aislado es hasta cierto punto un producto minoritario, mientras que el sistema multimedia de los noventa conectado a las redes se convertirá en una fuente de información y entretenimiento de interés para el público en general. Existen ya en el mercado algunos modelos de lo que se conoce como ‘set-top boxes’ desarrollados por empresas como Philips, Sony o Nokia, que son aparatos que se conectan a la red de datos y al televisor doméstico. En estos equipos resulta esencial la facilidad de manejo.

 

Los precios de la informática vienen sufriendo desde hace bastantes años una disminución exponencial. El precio del espacio en disco (pesetas/MB) se reduce a la mitad aproximadamente cada 4.5 años, el de la potencia de procesador (pesetas/MIP) cada 2.3 años, y el de la memoria RAM (pesetas/MB) cada 1.8 años. Como comparación el precio de la transmisión de datos (medido en pesetas/Mb/s/Km) se reduce a la mitad cada 1.5 años aproximadamente, es decir, esta teniendo una disminución aun mayor que las tecnologías informáticas. Las investigaciones y desarrollos en materia de transmisión de datos hacen prever que dicha tendencia se mantendrá en el futuro.

 

Además de los factores tecnológicos en los precios de los servicios telemáticos influyen aspectos legales que en ocasiones alteran la situación de manera importante. Por ejemplo en España, como en otros países de Europa, la decisión de liberalizar las telecomunicaciones en 1998 está produciendo un abaratamiento de los precios gracias a la libre competencia, que de forma transitoria hará aun mayor la reducción que cabría esperar de los factores puramente tecnológicos.

 

1.1.1    Que es (y que no es) objetivo del curso

 

El curso pretende dar una formación básica en los aspectos técnicos de la comunicación de ordenadores a alumnos de segundo ciclo (cuarto curso) de Ingeniería Informática, tomando en cuenta su formación durante el primer ciclo, en especial los conocimientos adquiridos en la asignatura Elementos y Sistemas de Transmisión de Datos, que podemos considerar como previa a la presente asignatura.

 

El alumno deberá ser capaz al finalizar el curso de diseñar adecuadamente una red informática para una empresa, atendiendo a criterios de coste, prestaciones y necesidades. También debería poder comprender la descripción técnica o documentación de un producto de comunicaciones, así como artículos de la literatura especializada.

 

En toda área de conocimiento técnica existe una profusión de siglas para referirse a términos, conceptos o incluso a frases concretas. La telemática es especialmente rica en este sentido, y el conocimiento del significado de tales abreviaturas es necesario para la comprensión de la literatura técnica. Siempre que un término o concepto disponga de una abreviatura habitual lo indicaremos junto con su significado (casi siempre en inglés) la primera vez que aparezca. El conocimiento del significado de las siglas es como su ‘etimología’, y forma parte de la ‘cultura general’ que todo ingeniero informático debería tener.

 

Actualmente existen, sobre todo en entornos universitarios, multitud de ‘gurus’ de la Internet que son capaces de encontrar casi cualquier cosa en la red, conocen todos los servicios existentes y están al tanto de la última aplicación o programa aparecido. Conviene destacar que no es el objeto de este curso crear tales gurus, por tres razones:

 

 

 

 

En cierto modo podríamos decir, siguiendo la típica analogía de las ‘autopistas de la información’, que dichos ‘gurus’ de la Internet son muy buenos conductores, pero lo que aquí pretendemos no es obtener el carné de conducir sino aprender a diseñar carreteras y vehículos para que el tráfico sea lo más fluido (y seguro) posible. Que duda cabe que nunca le vendrá mal a un ingeniero saber conducir bien, y en este sentido estimulamos al alumno a realizar tantas ‘prácticas de conducción’ como le sea posible tanto durante sus estudios como después en su futura actividad profesional.

 

Tampoco es objeto de este curso introducir al alumno en los aspectos legales, comerciales o políticos del mundo de las telecomunicaciones, que son motivo de noticia casi diaria en los medios de comunicación, tanto a nivel nacional como europeo.

 

1.1.2    Telecomunicaciones y Telemática

 

Empezaremos por diferenciar estos dos términos fundamentales.

 

Entendemos por telecomunicaciones el conjunto de medios técnicos que permiten la comunicación a distancia. Normalmente se trata de transmitir información sonora (voz, música) o visual (imágenes estáticas o en movimiento) por ondas electromagnéticas a través de diversos medios (aire, vacío, cable de cobre, fibra óptica, etc.). La información se puede transmitir de forma analógica, digital o mixta, pero en cualquier caso las conversiones, si las hay, siempre se realizan de forma transparente al usuario, el cual maneja la información de forma analógica exclusivamente.

 

El término telemática (fusión de telecomunicaciones e informática) trata del uso de las telecomunicaciones para enriquecer las posibilidades de la informática (y no al revés), es decir, del uso de medios de comunicación a distancia para conexiones informáticas (ordenador-ordenador u ordenador-periférico). La información puede transmitirse de forma analógica, digital o mixta, pero esto es transparente al usuario, que la maneja de forma digital únicamente.

 

Todos los sistemas habituales de telecomunicaciones transmiten la información por medio de ondas electromagnéticas a través de diversos medios: aire, vacío, cable de cobre, fibra óptica, etc.

 

1.1.3    Redes de ordenadores y sistemas distribuidos

 

La expresión redes de ordenadores (o simplemente redes) se utiliza cuando, por medio de la telemática, se realiza la comunicación entre dos o más ordenadores. Queda excluida aquí la comunicación entre un ordenador y un periférico (terminal, impresora, etc.) independientemente de la distancia a la que dicha comunicación se produzca o el tipo de medios utilizados para ella. Dicho de otro modo, en redes de ordenadores se considera únicamente la comunicación entre elementos que pueden hablar de igual a igual (‘peer to peer’ en inglés), sin tomar en consideración la comunicación asimétrica maestro-esclavo.

 

Un caso particular de las redes de ordenadores son los sistemas distribuidos, en los que se intenta conectar varios ordenadores mediante una red y crear un entorno de utilización tal que el usuario no perciba la existencia de múltiples sistemas, sino que los maneje como un único sistema virtual de forma transparente; para esto se utilizan normalmente protocolos o aplicaciones específicos. Evidentemente si el medio de comunicación es de baja velocidad el usuario percibirá un retraso cuando acceda a un nodo remoto, por lo que generalmente los sistemas distribuidos sólo se implementan en redes de alta velocidad (redes locales por ejemplo). Un ejemplo de protocolo de sistemas distribuidos podría ser el NFS (Network File System) que permite acceso a ficheros remotos de forma transparente.

 

1.1      USOS DE LAS REDES DE ORDENADORES

 

Podemos diferenciar claramente dos tipos de usos o usuarios de las redes de ordenadores: el profesional, que se da normalmente en la empresa, y el particular, que generalmente tiene lugar en la residencia habitual del usuario.

 

1.1.1    Uso de las redes en empresas

 

Prácticamente cualquier empresa que tenga varios ordenadores hoy en día tiene una red local que los interconecta. Si la empresa dispone de varias sedes u oficinas dispersas dispondrá típicamente de una red local (LAN, Local Area Network) en cada una de ellas y de un medio de interconexión de dichas redes locales a través de enlaces telefónicos (también llamados accesos WAN, Wide Area Network). La red o redes permiten acceder a información importante y actualizada de manera rápida, por ejemplo una base de datos que contenga toda la información comercial de la compañía (productos, stocks, precios, plazos de entrega, etc.). A menudo estas bases de datos están en uno o unos pocos ordenadores de la red, ya que la existencia de múltiples copias complica las actualizaciones.

 

Antiguamente las aplicaciones se diseñaban para que los usuarios accedieran desde terminales ‘tontos’ al ordenador central en el que se mantenía la base de datos y en el cual se procesaba la transacción en su totalidad, pero la aparición de redes de ordenadores donde el terminal se ha convertido en un PC ha llevado a un nuevo modelo de desarrollo de las aplicaciones llamado cliente-servidor, consistente en descargar en el PC (cliente) una parte del proceso de la transacción (por ejemplo toda la labor de validación de los datos introducidos), y dejar para el ordenador central (servidor) únicamente la parte que no es posible hacer en el cliente, como por ejemplo la inclusión del nuevo registro en la base de datos. El modelo cliente-servidor reduce así de forma considerable los recursos necesarios en el ordenador central, y permite aprovechar el PC que el usuario tiene en su mesa (y que muy probablemente tendría de todas formas). Además así la aplicación se integra de forma más amigable en el ordenador del usuario final (mediante el uso de ventanas, interfaces gráficas, ratón, etc.). Así el uso del modelo cliente-servidor, y por tanto de las  redes de ordenadores puede llegar a suponer en la práctica un ahorro en los gastos informáticos de la empresa, además de una mayor productividad de sus empleados.

 

Por otro lado, la existencia de redes de ordenadores permite a la empresa tener duplicado su servidor de base de datos, o cualquier otra información vital, de forma que en caso de fallo del software, hardware, o destrucción física del servidor la información no se vea afectada al poder los clientes seguir funcionando con el servidor de reserva. Esto se traduce en una mayor fiabilidad del sistema, aspecto imprescindible en algunas empresas (por ejemplo bancos, hospitales, cadenas de montaje de fábricas, etc.). Por supuesto para que el sistema en su conjunto sea altamente fiable es preciso duplicar no solo el servidor de base de datos, sino la propia red (elementos de conmutación, conexión, cables, etc.) de forma que no haya ningún elemento importante susceptible de fallo cuya funcionalidad no este duplicada.

 

La red en las empresas permite compartir recursos, tales como periféricos de elevado costo (impresoras láser, scanners, plotters, filmadoras, etc.), o programas (siempre y cuando la licencia que se posee permita su uso en red) con el consiguiente ahorro de espacio en disco y sencillez de actualización.

 

Otra utilidad importante de la red en las empresas es como medio de comunicación entre sus empleados; el correo electrónico es el servicio básico, pero otros mas avanzados se están implantando, tales como la videoconferencia o las aplicaciones que permiten compartir un documento entre varios usuarios trabajando desde ordenadores distintos. Este tipo de aplicaciones se conoce como CSCW (Computer Supported Cooperative Work) y también como ‘groupware’.

 

Hasta aquí hemos discutido aplicaciones orientadas fundamentalmente al uso de la red dentro de la propia empresa (lo que actualmente se suele denominar la ‘Intranet’). Dicha red puede conectarse al exterior, bien directamente o a través de un cortafuego o ‘firewall’, es decir, una pasarela intermedia que permita controlar el acceso (entrante y/o saliente) para evitar problemas de seguridad. Cuando la red de la empresa se conecta al exterior (normalmente a la Internet) aparecen una serie de nuevas aplicaciones que le dan aun mayor utilidad, entre las que cabe destacar las siguientes:

 

Las actividades de marketing; por ejemplo se puede poner el catálogo de productos de la empresa en la red para su consulta por los clientes, con información detallada de características, precio, referencias, etc.; también es posible tramitar pedidos recibidos a través de la red.

 

Actividades de soporte en línea; se puede responder a preguntas de los usuarios a través de la red, tanto por correo electrónico como por listas de distribución o grupos de news. En el caso de empresas de software es frecuente ofrecer a través de la red nuevas versiones de programas, sistemas operativos, parches para la resolución de problemas, etc.

 

Las herramientas de comunicación antes mencionadas (correo electrónico, videoconferencia, CSCW, etc.) adquieren una relevancia mucho mayor cuando su uso no se limita al interior de la empresa.

 

Algunas empresas encuentran en Internet una manera económica de interconectar sus oficinas remotas, evitando así la contratación de líneas propias de larga distancia.

 

El empleado puede acceder a una enorme cantidad de información externa a su empresa útil para su trabajo, por ejemplo información de suministradores, competidores, clientes, foros de discusión sobre temas relacionados con su trabajo (especialmente cuando éste es de carácter técnico), etc. Curiosamente esta ventaja conlleva un problema, que es la imposibilidad de evitar que el empleado utilice la conexión al exterior para acceder a información no relacionada con su trabajo (por ejemplo sobre su hobby favorito), perdiendo en ello a veces una parte importante de su jornada laboral. Es prácticamente imposible impedir por medios técnicos que esto suceda, aunque se pueden adoptar algunas medidas protectoras. Este problema ha hecho a algunas empresas cuestionarse la conveniencia de dar acceso Internet a sus empleados.

 

1.1.2    Uso de las redes por particulares

 

El uso de las redes de ordenadores por particulares tiene tres objetivos fundamentales:

 

 

El acceso a información actualmente se centra en el acceso a Internet y sobre todo a servidores Web. En torno a esto han aparecido multitud de servicios derivados del uso de la telemática para diversos fines, tales como teletrabajo, telecompra, teleenseñanza, telemedicina, etc.

 

La comunicación tiene lugar tanto a nivel individual (correo electrónico) como en grupos (listas de distribución, grupos de news, etc.). Esto incluye no solo información textual, sino también multimedia: sonido, imagen y vídeo. Además de estas aplicaciones asíncronas, en las que los participantes no han de coincidir en el tiempo, existen otras (llamadas isócronas) en las que si han de coincidir, como las que permiten utilizar el ordenador como un teléfono, para hablar con un usuario remoto a través de la Internet; esto supone un ahorro importante en algunos casos ya que se puede hacer una llamada a un lugar remoto pagando tarifa local (lo cual ha motivado serias críticas y discusiones con las compañías telefónicas, especialmente en Estados Unidos). También está el servicio de videoconferencia, aunque poco extendido a nivel particular debido a su escasa difusión y a sus requerimientos de capacidad, difíciles de satisfacer con un módem telefónico.

 

El uso con fines de entretenimiento será la gran aplicación de las redes de ordenadores en el futuro, pero actualmente el reto tecnológico es tan grande que para abordarlo es preciso disponer de potentes y costosos equipos, con lo que la rentabilidad es cuando menos dudosa. Se han hecho ya algunas experiencias de vídeo bajo demanda en Estados Unidos, pero las necesidades de red y de servidores para un número elevado de usuarios son tan grandes que los servicios comerciales que actualmente se ofrecen se basan generalmente en el vídeo casi bajo demanda (NVOD, Near Video On Demand) donde cada transmisión es vista por un conjunto de usuarios simultáneamente.

 

1.1.3    Aspectos sociales

 

La Internet es noticia casi diaria en los medios de comunicación, y no siempre en sentido positivo. Algunos ejemplos de temas polémicos son los siguientes:

 

 

 

 

 

 

 

 

1.2      TIPOS DE REDES

 

De acuerdo con su tecnología de transmisión las redes se clasifican en:

 

 

Según su escala también se suelen clasificar en:

 

 

En esta última clasificación también se distingue a veces una categoría intermedia, la formada por las redes de área metropolitana (MAN, Metropolitan Area Network).

 

La combinación de estos dos criterios nos permite crear una matriz con cuatro categorías posibles; en la práctica existen redes en cada una de estas cuatro categorías, si bien la mayoría encajan en dos de ellas:

 

 

 

LAN

WAN

Broadcast

La mayoría de las LANs (Ethernet, FDDI, Token Ring, etc.), Fibre Channel

Redes de transmisión vía satélite

Punto a punto

HIPPI, Fibre Channel, LANs Conmutadas

La mayoría de las WANs (todas las basadas en enlaces telefónicos, X.25, Frame Relay, RDSI, ATM, etc.)

 

1.2.1    Redes broadcast

 

En las redes broadcast el medio de transmisión es compartido por todos los ordenadores interconectados. Normalmente cada mensaje transmitido es para un único destinatario, cuya dirección aparece en el mensaje, pero para saberlo cada máquina de la red ha de recibir o ‘escuchar’ cada mensaje, analizar la dirección de destino y averiguar si va o no dirigido a ella; las normas de buena educación ‘telemática’ establecen que un ordenador debe descartar sin mas análisis todo mensaje que no vaya dirigido a él; sin embargo, algunos programas llamados ‘sniffers’ se dedican a ‘cotillear’ todo lo que pasa por el cable, independientemente de quien sea su destinatario; con un sniffer es muy fácil capturar cualquier cosa, por ejemplo los caracteres que viajan por la red en un proceso de conexión averiguando así de manera rápida el userid y la password de un usuario cualquiera (por ejemplo ‘root’). La única protección efectiva en las redes broadcast es el encriptado de la información.

 

A veces en una red broadcast lo que se quiere es precisamente enviar un mensaje a todas las máquinas conectadas. Esto se llama un envío broadcast. Asimismo es posible enviar un mensaje dirigido a un subconjunto de todas las máquinas de la red (subconjunto que ha de estar definido previamente); esto se conoce como envío multicast (y el subconjunto se denomina grupo multicast). En algunos contextos cuando se habla de broadcast o multicast el caso en el que el mensaje va dirigido a una máquina concreta se denomina envío unicast.

 

Como ejemplos de redes broadcast podemos citar casi todas las tecnologías de red local: Ethernet (en sus diversos tipos), Token Ring, FDDI, etc. También son redes broadcast las basadas en transmisión vía satélite. En una red broadcast la capacidad o velocidad de transmisión indica la capacidad agregada de todas las máquinas conectadas a la red; por ejemplo, la red conocida como Ethernet tiene una velocidad de 10 Mb/s, lo cual significa que la cantidad máxima de tráfico agregado de todos los equipos conectados no puede superar este valor.

 

Conviene mencionar en este punto que en Telemática siempre que se especifican capacidades de transmisión de la información, a menudo referidas erróneamente como velocidades de transmisión o anchos de banda, los prefijos Kilo, Mega, etc., se utilizan con su significado métrico (103, 106, etc.), no con el significado informático (210, 220, etc.). Así 1 Kb/s corresponde a 1.000 bits/s, no 1.024 bits/s; análogamente 1 Mb/s significa 1.000.000 bits/s, no 1.048.576 bits/s. Sin embargo cuando no se trata de cantidad de información (sin dividir por el tiempo) el significado sigue siendo el habitual, así por ejemplo si decimos que un determinado protocolo utiliza un tamaño máximo de paquete de 64 Kbytes queremos decir que el paquete puede contener hasta 65535 Bytes; si decimos que hemos transmitido un fichero de 1 MByte, queremos decir que el fichero contiene 1.048.576 Bytes. Normalmente las velocidades o, más correctamente, las capacidades de transmisión se miden en bits/segundo (que abreviaremos como bps), mientras que el tamaño de una trama, de un paquete o de un fichero se expresa en Bytes.

 

1.2.2    Redes punto a punto

 

Las redes punto a punto se construyen por medio de conexiones entre pares de ordenadores, también llamadas líneas, enlaces, circuitos o canales (en inglés los términos equivalentes son ‘lines’, ‘links’, ‘circuits’, ‘channels’ o ‘trunks’). Una vez un paquete es depositado en la línea el destino es conocido de forma unívoca y no es preciso en principio que lleve la dirección de destino.

 

Los enlaces que constituyen una red punto a punto pueden ser de tres tipos de acuerdo con el sentido de la transmisión:

 

 

 

 

En los enlaces semi-dúplex y dúplex la velocidad de conexión es generalmente la misma en ambos sentidos, en cuyo caso se dice que el enlace es simétrico; en caso contrario se dice que es asimétrico.

 

La gran mayoría de los enlaces en líneas punto a punto son dúplex simétricos. Así, cuando se habla de un enlace de 64 Kb/s sin especificar mas se quiere decir 64 Kb/s en cada sentido, por lo que la capacidad total del enlace es de 128 Kb/s.

 

Al unir múltiples máquinas con líneas punto a punto es posible llegar a formar redes de topologías complejas en las que no sea trivial averiguar cual es la ruta óptima a seguir para ir de un punto a otro, ya que puede haber múltiples caminos posibles con distinto número de ordenadores intermedios, con enlaces de diversas velocidades y distintos grados de ocupación. Como contraste, en una red broadcast el camino a seguir de una máquina a otra es único, no existen ordenadores intermedios y el grado de ocupación es el mismo para todas ellas.

 

Cada uno de los ordenadores que participa en una red de enlaces punto a punto es un nodo de la red. Si el nodo tiene un único enlace se dice que es un nodo terminal o ‘end node, de lo contrario se dice que es un nodo intermedio, de encaminamiento o routing node. Cada nodo intermedio ha de tomar una serie de decisiones respecto a por donde debe dirigir los paquetes que reciba, por lo que también se les llama nodos de conmutación de paquetes, nodos de conmutación, conmutadores o encaminadores (los términos equivalentes en inglés son respectivamente packet switching nodes, switching nodes, switches y routers). Dependiendo del tipo de red que se trate nosotros utilizaremos las denominaciones router o conmutador.

 

Cualquier ordenador (por ejemplo una estación de trabajo UNIX, o incluso un PC con MS/DOS), puede actuar como un router en una red si dispone del programa apropiado; sin embargo, se prefiere normalmente utilizar para este fin ordenadores dedicados, con sistemas operativos en tiempo real y software específico, dejando los ordenadores de propósito general para las aplicaciones del usuario; esto da normalmente mayor rendimiento y fiabilidad. Tradicionalmente al ordenador de propósito general que se conecta a la red como nodo terminal mediante un router se le denomina host, palabra inglesa que significa anfitrión (aunque esta denominación no se utiliza nunca en este contexto). El conjunto de líneas de comunicación y routers que interconectan a los hosts forman lo que se conoce como la subred de comunicaciones, o simplemente subred. Obsérvese que los hosts o nodos terminales no forman parte de la subred. Si hacemos la analogía con la red telefónica diríamos que la subred es el conjunto de cables y centralitas telefónicas, incluido el aplique de la pared donde conectamos el teléfono, pero no formaría parte de la subred nuestro teléfono, que enchufamos al aplique.

 

Para llegar de un nodo a otro en una red se ha de atravesar uno o varios enlaces; el número de enlaces se denomina en inglés ‘hops’, que significa saltos, y depende de la trayectoria seguida y de la topología de la red. Cuando dos nodos no vecinos (es decir a mas de un ‘hop’ de distancia) desean intercambiar información lo han de hacer a través de uno o varios nodos intermedios. Cuando un paquete se envía de un nodo al siguiente normalmente el paquete es transmitido en su totalidad y almacenado; solo entonces el nodo receptor intenta enviar el paquete al siguiente nodo de la red. Esto es lo que se conoce como una red de almacenamiento - reenvío (‘store-and-forward’) o red de conmutación de paquetes (packet - switched). Esta forma de proceder permite una elevada fiabilidad incluso en entornos hostiles donde el número de errores puede ser elevado.

 

Dado que en una red punto a punto cada enlace puede tener una velocidad distinta, no podemos caracterizar la red con un único dato de forma tan sencilla como en una red broadcast; sería preciso adjuntar un esquema de la topología indicando el tipo de cada enlace (simplex, semi-dúplex o dúplex) y su velocidad (en cada sentido si fuera asimétrico).

 

1.2.3    Redes de área local (LAN)

 

Las redes de área local tienen generalmente las siguientes características:

 

 

Las LANs más conocidas y extendidas son la Ethernet a 10 Mb/s, la IEEE 802.5 o Token Ring a 4 y 16 Mb/s, y la FDDI a 100 Mb/s. Estos tres tipos de LAN han permanecido prácticamente sin cambios desde finales de los ochenta, por lo que a menudo se les referencia en la literatura como ‘LANs tradicionales (‘legacy LANs’ en inglés) para distinguirlas de otras mas modernas aparecidas en los 90, tales como la Fast Ethernet (100 Mb/s).

 

A menudo las LANs requieren un tipo de cableado específico (de cobre o de fibra); esto no suele ser un problema ya que al instalarse en una fábrica, campus o similar, se tiene un control completo sobre el entorno y las condiciones de instalación.

 

El alcance limitado de las LANs permite saber el tiempo máximo que un paquete tardará en llegar de un extremo a otro de la red, lo cual permite aplicar diseños que de otro modo no serían posibles, y simplifica la gestión de la red.

 

Como consecuencia del alcance limitado y del control en su cableado, las redes locales suelen tener un retardo muy bajo en las transmisiones (decenas de microsegundos) y una tasa de errores muy baja.

 

La topología básica de las redes locales suele ser de bus (p. Ej. Ethernet) o de anillo (Token Ring o FDDI). Sin embargo, pueden hacerse topologías mas complejas utilizando elementos adicionales, tales como repetidores, puentes, conmutadores, etc., como veremos más adelante.

 

En épocas recientes se ha popularizado una técnica para aumentar el rendimiento de las redes locales, que consiste en dividir una LAN en varias mas pequeñas, con lo que el ancho de banda disponible para cada uno es mayor; las diversas LANs así formadas se interconectan en un equipo especial denominado conmutador LAN (o LAN switch); en casos extremos se puede llegar a dedicar una red por equipo, disponiendo así de todo el ancho de banda para él.

 

En años recientes se ha empezado a utilizar una tecnología de redes telefónicas, y por tanto típicamente de redes WAN, para la construcción de redes locales; esta tecnología, denominada ATM (Asynchronous Transfer Mode), dará mucho que hablar en el futuro.

 

1.2.4    Redes de área metropolitana (MAN)

 

En principio se considera que una MAN abarca una distancia de unas pocas decenas de kilómetros, que es lo que normalmente se entiende como área metropolitana. Existe solamente una red característica de las MANs, la conocida como IEEE 802.6 o DQDB (Distributed Queue Dual Bus), que puede funcionar a diversas velocidades entre 34 y 155 Mb/s con una distancia máxima de unos 160 Km. En realidad la distinción de MANs en base a la distancia es un tanto arbitraria, ya que FDDI puede llegar a 200 Km pero raramente se la clasifica como MAN, al no ser un servicio ofrecido por las compañías telefónicas, cosa que sí ocurre con DQDB en algunos países.

 

La tecnología DQDB ha tenido escasa difusión. Su mayor mérito ha sido servir como predecesora de ATM en algunos aspectos. En el futuro es de esperar que la red DQDB caiga en desuso o desaparezca ya que su espacio ha sido ocupado por completo por las redes basadas en ATM.

 

Un caso de redes especialmente difíciles de clasificar son las formadas por empresas de televisión por cable. Desde el punto de vista técnico estas redes se podrían considerar tipo LAN, y como tal las estudiaremos; sin embargo el hecho de que sean gestionadas por empresas especializadas y ofrecidas como un servicio contratable por los usuarios les da unas características de WAN desde el punto de vista legal. Estas circunstancias unidas a su alcance máximo (entre 160 y 200 Km) hacen que las podamos considerar en cierto modo como redes MAN.

 

El término MAN suele utilizarse también en ocasiones para denominar una interconexión de LANs ubicadas en diferentes recintos geográficos (por ejemplo diferentes campus) cuando se dan las siguientes circunstancias:

 

 

 

 

1.2.5    Redes de área extensa (WAN)

 

Las redes de amplio alcance se utilizan cuando no es factible tender redes locales, bien porque la distancia no lo permite por el costo de la infraestructura o simplemente porque es preciso atravesar terrenos públicos en los que no es posible tender infraestructura propia. En todos estos casos lo normal es utilizar para la transmisión de los datos los servicios de una empresa portadora. Hasta hace poco este tipo de servicios eran ofrecidos en régimen de monopolio por las compañías telefónicas en la mayoría de los países de Europa. Afortunadamente esto esta cambiando rápidamente siendo posible por ejemplo en España contratar hoy en día servicios portadores de datos con Retevisión, o en breve con diversas compañías de televisión por cable, si bien en muchos casos la mayor penetración de Telefónica hace que haya un monopolio de facto.

 

En la literatura especializada es frecuente referirse a las compañías telefónicas europeas genéricamente con la denominación PTT, abreviatura de Post, Telegraph and Telephone. Esto se debe a que en muchos países de Europa la empresa que se encargaba tradicionalmente de las transmisiones telefónicas era la misma que ofrecía el servicio de correos y telégrafos, todo esto en régimen de monopolio. Con la liberalización del servicio de telefonía y la aparición de diversas compañías competidoras la denominación PTT se esta sustituyendo por la de operador (que quiere decir que opera la red); la costumbre hace que en muchos casos se siga aun utilizando el término PTT.

 

Las redes WAN se implementan casi siempre haciendo uso de enlaces telefónicos que han sido diseñados principalmente para transmitir la voz humana, ya que este es el principal negocio de las compañías telefónicas. Normalmente la infraestructura esta fuera del control del usuario, estando supeditado el servicio disponible a la zona geográfica de que se trate. Conseguir capacidad en redes WAN suele ser caro, por lo que generalmente se solicita el mínimo imprescindible.

 

Hasta tiempos recientes las conexiones WAN se caracterizaban por su lentitud, costo y tasa de errores relativamente elevada. Con la paulatina introducción de fibras ópticas y líneas digitales en las infraestructuras de las compañías portadoras las líneas WAN han reducido apreciablemente su tasa de errores; también se han mejorado las capacidades y reducido los costos. A pesar del inconveniente que en ocasiones pueda suponer el uso de líneas telefónicas tienen la gran virtud de llegar prácticamente a todas partes, que no es poco.

 

Con la excepción de los enlaces vía satélite, que utilizan transmisión broadcast, las redes WAN se implementan casi siempre con enlaces punto a punto, por lo que prácticamente todo lo que hemos dicho en el apartado de redes punto a punto es aplicable a las redes WAN.

 

1.2.6    Redes inalámbricas y movilidad.

 

En los últimos años ha habido un auge considerable de los sistemas de telefonía inalámbrica. Algunos usuarios requieren facilidades para conectar por radioenlaces sus ordenadores personales desde cualquier lugar o mientras se encuentran viajando en tren, autobús, etc. El sistema de telefonía inalámbrica digital GSM (Global System for Mobile communications), muy extendido en Europa, utiliza un canal digital para transmitir la voz, por lo que es posible conectar un ordenador portátil mediante un teléfono GSM, sin necesidad de módem. En algunos países ya se han hecho experimentos de conexiones inalámbricas a 64 Kb/s utilizando una versión modificada del GSM.

 

La conexión de ordenadores con total movilidad es importante en aplicaciones tales como flotas de taxis, camiones, autobuses, servicios de emergencia, fines militares, etc. En estos casos se emplean, además de los ya familiares ordenadores portátiles conocidos como 'laptops', otros aún más pequeños que se conocen como 'palmtop', asistente digital personal o PDA (Personal Digital Assistant), y que son algo intermedio entre un ordenador portátil y una agenda electrónica.

 

Las redes inalámbricas también tienen utilidad en algunos casos donde no se requiere movilidad, como en las LANs inalámbricas. Por ejemplo, una empresa que desea establecer una nueva oficina y por rapidez, provisionalidad de la ubicación o simples razones estéticas no desea cablear el edificio puede utilizar una LAN inalámbrica, consistente en una serie de equipos transmisores-receptores. Las LAN inalámbricas son generalmente más lentas que las normales (1-2 Mb/s) y tienen una mayor tasa de errores, pero para muchas aplicaciones pueden ser adecuadas.

 

La movilidad es importante también en casos en que no hay involucradas conexiones inalámbricas. Por ejemplo un representante que desee conectar con su oficina desde su ordenador portátil cuando se encuentra de viaje puede optar por llamar a su oficina directamente, pagando posiblemente una costosa llamada de larga distancia, o bien puede llamar al punto de presencia (POP, Point Of Presence) mas próximo de algún proveedor de servicios de comunicación, y a través de este acceder a su oficina por una infraestructura compartida que le resulte mas barata (por ejemplo la Internet); en este último caso se dan una serie de problemas de solución no trivial en cuanto a la seguridad y el correcto encaminamiento del tráfico.

 

1.2.7    Internetworking

 

Si bien las clasificaciones de redes antes estudiadas tienen interés como medio de sistematizar su estudio, es obvio que en la realidad casi nunca se da uno de esos tipos en estado puro. Por ejemplo, una LAN (que normalmente será una red de tipo broadcast) casi siempre dispondrá de un router que la interconecte a una WAN (que generalmente consistirá en un conjunto de enlaces punto a punto). Esta interconexión de tecnologías diferentes se conoce como ‘internetworking’ (que podríamos intentar traducir como ‘interredes’). El router que interconecta redes diferentes está físicamente conectado a todas las redes que se desean interconectar.

 

Además de la combinación de medios físicos diversos es posible encontrarse con necesidades de internetworking en un mismo medio físico; este es el caso cuando coexisten protocolos de comunicación diferentes; por ejemplo, en una misma red Ethernet puede haber unos ordenadores utilizando el protocolo TCP/IP y otros utilizando DECNET (protocolo típico de la marca de ordenadores Digital). Al ser protocolos diferentes son completamente independientes y no se pueden hablar entre sí, por lo que un usuario de un ordenador TCP/IP no podría por ejemplo enviar un mensaje de correo electrónico a uno de un ordenador DECNET. Sin embargo, es posible instalar en un ordenador ambos protocolos, y un programa de conversión de correo electrónico, de forma que los usuarios de ambas redes puedan intercambiar mensajes. A la máquina que interconecta el correo electrónico de los dos protocolos se la denomina pasarela (‘gateway’ en inglés). Generalmente las pasarelas han de implementarse a nivel de aplicación; así disponer en nuestro ejemplo de una pasarela para el correo electrónico no significa que podamos transferir ficheros entre máquinas TCP/IP y DECNET, ya que para esto haría falta una pasarela del servicio de transferencia de ficheros. Una misma máquina puede actuar como pasarela para varios servicios. Haciendo una analogía podemos decir que los protocolos son como idiomas y las pasarelas equivalen a servicios de traducción que permiten entenderse a personas que hablan diferentes lenguas.

 

Cuando una red esta formada por la interconexión de varias redes se le denomina internet. A principios de los setenta se creó en los Estados Unidos una internet mediante la unión de varias redes que utilizando medios de transmisión diversos empleaban un conjunto común de protocolos en el nivel de red y superiores, denominados TCP/IP. Con el tiempo la denominación Internet (con I mayúscula) terminó convirtiéndose en el nombre propio de dicha red, muy conocida en nuestros días.

 

1.3      ARQUITECTURA DE REDES

 

En los inicios de la informática el diseño de un ordenador resultaba en sí mismo una tarea tan compleja que no se tomaba en consideración la compatibilidad con otros modelos de ordenadores; la preocupación fundamental era que el diseño fuera correcto y eficiente. Como consecuencia de esto era preciso crear para cada nuevo modelo de ordenador un nuevo sistema operativo y conjunto de compiladores. Los programas escritos en lenguaje máquina o en ensamblador (que entonces eran la mayoría) tenían que ser prácticamente reescritos para cada nuevo modelo de ordenador.

 

En 1964 IBM anunció un nuevo ordenador denominado Sistema/360. Se trataba en realidad de una familia formada por varios modelos que compartían una arquitectura común (era la primera vez que se utilizaba este término referido a ordenadores). La arquitectura establecía unas especificaciones comunes que hacían compatibles a todos los modelos de la familia (conjunto de instrucciones, forma de representar los datos, etc.), pudiendo así ejecutar los mismos programas, utilizar el mismo sistema operativo, compiladores, etc. en toda la familia, que comprendía una gama de ordenadores de potencias y precios diversos. El nombre 360 se eligió en base a la década en que se creó (los 60) y a la idea de que era una arquitectura polivalente, que pretendía servir para aplicaciones de todo tipo (360º, o sea que puede ir en todas direcciones). La arquitectura 360 ha ido evolucionando hasta desembocar en nuestros días en la arquitectura ESA/390, utilizada en los grandes ordenadores IBM (mainframes) actuales, que son aún la base de las aplicaciones críticas en grandes empresas (bancos, líneas aéreas, etc.). Todos los fabricantes de ordenadores actuales utilizan una o varias arquitecturas como base para el diseño de sus equipos.

 

Las primeras redes de ordenadores tuvieron unos inicios muy similares a los primeros ordenadores: Las redes y los protocolos se diseñaban pensando en el hardware a utilizar en cada momento, sin tener en cuenta la evolución previsible, ni por supuesto la interconexión y compatibilidad con equipos de otros fabricantes (seguramente muchos creían que bastante trabajo suponía conseguir que las cosas funcionaran como para perder el tiempo con florituras¡). A medida que la tecnología avanzaba y se mejoraba la red se vivieron experiencias parecidas a las de los primeros ordenadores: los programas de comunicaciones, que habían costado enormes esfuerzos de desarrollo, tenían que ser reescritos para utilizarlos con el nuevo hardware, y debido a la poca modularidad prácticamente nada del código era aprovechable.

 

El problema se resolvió de forma análoga a lo que se había hecho con los ordenadores. Cada fabricante elaboró su propia arquitectura de red, que permitía independizar las funciones y el software del hardware concreto utilizado. De esta forma cuando se quería cambiar algún componente sólo la función o el módulo afectado tenía que ser sustituido. La primera arquitectura de redes fue anunciada por IBM en 1974, justo diez años después de anunciar la arquitectura S/360, y se denominó SNA (Systems Network Architecture). La arquitectura SNA se basa en la definición de siete niveles o capas, cada una de las cuales ofrece una serie de servicios a la siguiente, la cual se apoya en esta para implementar los suyos, y así sucesivamente. Cada capa puede implementarse en hardware, software o una combinación de ambos. El módulo (hardware y/o software) que implementa una capa en un determinado elemento de la red debe poder sustituirse sin afectar al resto de la misma, siempre y cuando el protocolo utilizado se mantenga inalterado. Dicho en otras palabras, SNA es una arquitectura altamente modular y estructurada. No vamos a entrar en mas detalles sobre la arquitectura SNA, ya que cae fuera de los objetivos del presente curso, pero sí diremos que el modelo de capas que utiliza ha sido la base de todas las arquitecturas de redes actualmente en uso, incluidas las basadas en el modelo OSI (Open Systems Interconnection) y el TCP/IP (Transmission Control Protocol/Internet Protocol) que veremos en detalle más adelante.

 

Las ideas básicas del modelo de capas son las siguientes:

 

 

 

 

La comunicación entre dos capas adyacentes en un mismo sistema se realiza de acuerdo con una interfaz. La interfaz es una forma concreta de implementar un servicio y no forma parte de la arquitectura de la red.

 

La arquitectura de una red queda perfectamente especificada cuando se describen las capas que la componen, su funcionalidad, los servicios que implementan y los protocolos que utilizan para hablar con sus ‘iguales’. El conjunto de protocolos que utiliza una determinada arquitectura en todas sus capas se denomina pila de protocolos (‘protocol stack’ en inglés); así es frecuente oír hablar de la pila de protocolos OSI, SNA, TCP/IP o DECNET, por ejemplo.

 

Para mejor comprender como funciona el modelo de arquitectura de redes basado en capas hagamos una analogía. Supongamos que un ejecutivo de la empresa A desea enviar de forma urgente un importante informe a un colega suyo en la empresa B. Para esto hablará con aquél notificándole el envío y a continuación pasará a su secretaria el informe con las instrucciones correspondientes. La secretaria llamará a la secretaria de B para averiguar la dirección exacta, pondrá el informe en un sobre y llamará a un servicio de mensajería, que enviará a un motorista para que recoja el paquete y lo lleve al aeropuerto. Cuando el paquete llega al aeropuerto de destino es recogido allí por otro motorista que lo lleva a la oficina de la empresa B y lo entrega a la secretaria; ésta se ocupará de los trámites administrativos (pagar al mensajero, abrir el paquete, comprobar su contenido, acusar recibo a la secretaria de A, etc.) y lo pasará después a su jefe, el cual una vez estudio el informe llamará al ejecutivo de A.

 

Obsérvese que en el proceso anterior existen diferentes niveles claramente diferenciados: los ejecutivos, las secretarias, los motoristas, y por último la empresa de líneas aéreas que se ocupa del transporte físico de la mercancía. En todos los niveles (menos probablemente el más bajo) hay dos entidades, la transmisora (A) y la receptora (B). Si todo ocurre según lo previsto cada entidad sólo hablará con su correspondiente en el otro lado, y con sus entidades vecinas, es decir, el jefe de A sólo habla con el jefe de B y con su secretaria, la secretaria habla con su jefe, con el motorista y con la otra secretaria para confirmar el envío, etc. En ningún caso se contempla que la secretaria de A hale con el ejecutivo de B. Si por ejemplo la secretaria de A es sustituida por enfermedad por otra persona los procedimientos seguirán funcionando, siempre y cuando la secretaria suplente desarrolle la misma función. Las variaciones de carácter interno sólo han de ser conocidas por las entidades contiguas, por ejemplo, el motorista de B podría ser reemplazado por una furgoneta de reparto, y este hecho solo ha de ser conocido por la secretaria de B y por la persona que entrega los paquetes en el aeropuerto. Esto es lo que denominamos una interfaz. Obsérvese que el modelo de capas simplifica considerablemente la tarea de cada una de las entidades, que sólo tiene que preocuparse de una pequeña parte de todo el mecanismo. En esencia se trata de aplicar a la resolución de problemas la vieja fórmula de divide y vencerás.

 

Cuando un sistema desea enviar un mensaje a un sistema remoto normalmente la información se genera en el nivel más alto; conforme va descendiendo se producen diversas transformaciones, por ejemplo adición de cabeceras, de colas, de información de control, la fragmentación en paquetes mas pequeños si es muy grande (o mas raramente la fusión con otros si es demasiado pequeño), etc. Todas estas operaciones se invierten en el sistema remoto en las capas correspondientes, llegando en cada caso a la capa correspondiente en el destino un mensaje igual al original.

 

1.3.1    Diseño de arquitecturas de redes.

 

Cuando se diseña una arquitectura de red hay una serie de aspectos y decisiones fundamentales que condicionan todo el proceso. Entre estos cabe mencionar los siguientes:

 

Direccionamiento: cada capa debe poder identificar los mensajes que envía y recibe. En ocasiones un mismo ordenador puede tener varias instancias de una misma capa, por lo que la sola identificación del ordenador puede no ser suficiente.

 

Normalmente cualquier protocolo admite comunicación en ambos sentidos (dúplex); pero no siempre se permite que esta ocurra de forma simultánea (full-dúplex). También se debe determinar si se definirán prioridades, y cuáles serán éstas.

 

En cualquier comunicación es preciso establecer un control de errores, ya que los canales de comunicación no son totalmente fiables. Es preciso decidir que código de detección y/o corrección de errores se va a utilizar, y en que capa o capas se va a llevar a cabo. Generalmente a medida que los medios de transmisión mejoran y las tasas de errores disminuyen la detección/corrección se va suprimiendo de las capas inferiores y dejando al cuidado de las más altas, ya que es un proceso costoso que puede llegar a ralentizar apreciablemente la transmisión.

 

En algunos casos se debe tener en cuenta la posibilidad de que los paquetes lleguen a su destino en orden diferente al de envío.

 

Debe contemplarse la posibilidad de que el receptor no sea capaz de ‘digerir’ la información enviada por el transmisor. Para esto es conveniente disponer de algún mecanismo de control de flujo y notificación para indicar la congestión.

 

Normalmente los equipos funcionan de forma óptima cuando el tamaño de los mensajes que se envían esta dentro de un cierto rango. Para evitar los problemas que puede producir el envío de mensajes muy grandes o muy pequeños se suelen contemplar mecanismos de fragmentación y reagrupamiento. Es importante que estos mecanismos estén claramente especificados para evitar la destrucción del mensaje en tránsito.

 

1.3.2    Interfaces y servicios

 

Debido a su importancia vamos a estudiar con más detalle que es un servicio. Empezaremos con algunas definiciones.

 

Llamaremos entidad a los elementos activos en cada capa. Una entidad puede ser un proceso, un componente hardware, o una combinación de ambos. Un ordenador puede tener una o varias entidades en cada capa (por ejemplo un ordenador con dos tarjetas de conexión a LAN).

 

Llamaremos entidades iguales o entidades pares (‘peer entitiesen inglés) a dos entidades diferentes que pertenecen a la misma capa; generalmente estarán en diferentes máquinas, pero podrían estar en la misma.

 

Las entidades de la capa n implementan los servicios que utiliza la capa n+1. En este caso la capa n actúa como el proveedor del servicio y la capa n+1 es el usuario del servicio. El uso que la capa n haga de los servicios de la capa n-1 es algo que no afecta ni incumbe a la capa n+1.

 

Los servicios están disponibles en los SAPs (Service Access Points). Los SAPs de la capa n son los puntos donde la capa n+1 puede acceder a los servicios ofertados. Cada SAP de cada entidad de la capa n tiene una dirección que le identifica de forma única en toda la red.

 

Denominamos interfaz al conjunto de reglas que gobiernan el intercambio de información entre capas. En una comunicación la entidad de la capa n+1 intercambia una IDU (Interface Data Unit) con la entidad de la capa n a través del SAP (ver Fig. 1-12 del Tanenbaum). La IDU esta formada por una SDU (Service Data Unit) e información de control. La SDU es la información que se transmite a la entidad equivalente (peer) en el lado contrario, y de allí a la capa n+1 a través de su SAP. La información de control es necesaria como su nombre indica para que la capa n haga correctamente su trabajo, pero no es parte de los datos mismos. En la especificación de una arquitectura solo es necesario describir la estructura de la SDU, pero no la de la IDU; ésta se describe en la interfaz, que puede ser distinta para cada implementación.

 

Para transferir la SDU (Service Data Unit) la entidad de la capa n puede tener que fragmentarla en varias PDUs (Protocol Data Units). Cada PDU llevará una cabecera que permitirá a la entidad de la capa n en el otro lado ensamblar de nuevo la SDU correctamente.

 

1.3.3    Servicios orientados y no orientados a conexión

 

En una arquitectura de redes cada capa utiliza los servicios de la capa inmediatamente inferior para comunicar con la correspondiente del otro extremo. En función de como se establezca esa comunicación suelen distinguirse dos tipos de servicios: orientados a conexión y no orientados a conexión.

 

En el servicio orientado a conexión, también llamado CONS (Connection Oriented Network Service), primero se establece el canal de comunicación, después se transmiten los datos, y por último se termina la conexión. Dicha ‘conexión’ se denomina circuito virtual (VC, virtual circuit). Una vez establecido el VC el camino físico que van a seguir los datos está determinado; los paquetes deben ir todos por él desde el origen al destino, y llegar en el mismo orden con el que han salido. Dado que el VC establece de forma clara el destino, los paquetes no necesitan contener su dirección. Generalmente se distinguen dos tipos de circuitos virtuales: conmutados, también llamados SVCs (Switched Virtual Circuits), y permanentes, conocidos también como PVCs (Permanent Virtual Circuits). Los SVCs se establecen y terminan a petición del usuario, normalmente cuando hay paquetes que se quieren transmitir. Los PVCs están establecidos todo el tiempo que la red está operativa (o al menos eso es lo que se pretende). Al hablar de circuitos utilizaremos las denominaciones ‘establecer’ y ‘terminar’ en vez de abrir y cerrar, ya que estos términos tienen un significado completamente opuesto según se trate de ingenieros informáticos o electrónicos (para un ingeniero electrónico un circuito esta abierto cuando esta interrumpido, es decir cuando no puede viajar por el ninguna señal).

 

En el servicio no orientado a conexión, llamado también CLNS (ConnectionLess Network Service) la comunicación se establece de manera menos formal. Cuando una entidad tiene información que transmitir sencillamente la envía en forma de paquetes, confiando que estos llegaran a su destino mas pronto o mas tarde. No se establece previamente un VC ni otro tipo de canal de comunicación extremo a extremo; los paquetes pueden ir por caminos físicos diversos, y deben incluir cada uno la dirección de destino. Los paquetes pueden ser almacenados por nodos intermedios de la red, y reenviados mas tarde. Aunque lo normal es que lleguen en el mismo orden con que han salido, esto no esta garantizado como ocurría en el servicio orientado a conexión debido al almacenamiento en nodos intermedios y a la diversidad de caminos físicos posibles. A los paquetes enviados en un servicio no orientado a conexión se les denomina datagramas, ya que cada paquete viaja hacia su destino de forma completamente independiente de los demás como si fuera un telegrama.

 

Generalmente se suelen explicar los modelos orientado y no orientado a conexión con dos analogías: el sistema telefónico y el sistema postal. El sistema telefónico es un ejemplo de servicio orientado a conexión, mientras que el sistema postal es un servicio no orientado a conexión. La analogía es bastante exacta salvo por el hecho de que en redes telemáticas la diferencia en el tiempo de entrega del mensaje entre servicios CONS y CLNS no es tan grande como la anterior comparación podría hacer pensar.

 

En cualquiera de los dos tipos de servicio antes mencionados es posible que se produzca pérdida de información; también puede ocurrir que el tiempo de envío del paquete, también llamado retardo o latencia (‘delay’ y ‘latency’ respectivamente en inglés) sea demasiado grande o fluctúe dentro de un amplio rango debido a la carga o congestión en la red (el término inglés usado para denominar dicha fluctuación es jitter, que literalmente significa mieditis, temblar de miedo). En algunos casos se requiere una entrega fiable, es decir que se garantice la entrega de los paquetes, o un retardo y/o jitter garantizados, o sea no superiores a un determinado valor. Por ejemplo si transferimos un fichero, normalmente dividiéndolo en múltiples paquetes, necesitaremos un servicio fiable en la entrega, pero podemos tolerar un retardo o jitter más o menos grande; por el contrario la voz, o el vídeo (imagen en movimiento) toleran un pequeño porcentaje de pérdidas, pero requieren un retardo y un jitter reducidos y constantes. Cuando al establecer una comunicación se solicita un nivel mínimo para alguno de éstos parámetros se dice que se requiere una calidad de servicio (llamada QoS, Quality of Service). La calidad de servicio estipula unos mínimos que la red ha de satisfacer para efectuar la conexión, por ejemplo 'transmisión fiable con un retardo no superior a 100 ms'; es posible que la red no sea capaz de satisfacer la calidad solicitada, en cuyo caso podría hacer una propuesta alternativa, a modo de regateo (por ejemplo, ‘no puedo asegurar 100 ms de retardo, lo mínimo es 250ms, ¿estás conforme?’) Una vez pactadas las condiciones de la conexión éstas actúan a modo de contrato que obliga a la red a dar la calidad de servicio prometida al usuario. No todos los protocolos o redes ofrecen la posibilidad de negociar calidades de servicio; en estos casos el protocolo simplemente aprovecha los medios disponibles lo mejor que puede, intentando evitar las congestiones y situaciones críticas en lo posible, y repartir los recursos entre los usuarios de manera mas o menos equilibrada; esta estrategia se denomina del ‘mejor esfuerzo’ (o también ‘best effort’). Como ejemplos de redes con QoS podemos citar ATM, como ejemplos de redes ‘best effort’ podemos mencionar TCP/IP (la Internet) y Ethernet.

 

1.3.4    Primitivas de servicio

 

Recordemos que, en el modelo de capas, cada capa ofrece sus servicios a la siguiente. El servicio se define por un conjunto de operaciones u órdenes que la capa superior puede mandar a la capa inferior. Dicho conjunto de operaciones se denomina primitivas.

 

Vamos a analizar en detalle las primitivas que participan en el establecimiento y terminación de una conexión entre la capa n de dos sistemas llamados A y B. La entidad A.n (es decir, la capa n del sistema A) inicia la conexión emitiendo la primitiva CONNECT.request, que provoca la transferencia de una IDU (Interface Data Unit) a través del SAP (Service Access Point) a la entidad A.n-1; ésta extrae la información de control y la interpreta creando la SDU (Service data Unit), que convierte en una o varias PDUs (Protocol Data Units); las PDUs son transferidas a B.n-1, que regenera a partir de ello la SDU, luego la información de control correspondiente y con ambos la IDU; una vez dispone de la IDU la transmite a B.n a través del SAP mediante la primitiva CONNECT.indication, que le indica a B.n que alguna entidad desea establecer conexión con ella. La entidad B.n emite entonces la primitiva CONNECT.response para indicar si acepta o rechaza la conexión (las primitivas pueden llevar parámetros y sería aquí donde se indicaría esto). La respuesta se traduce en un paquete que B.n-1 envía a A.n-1, el cual informa a A.n de la situación mediante la primitiva CONNECT.confirm.

 

Obsérvese que el mismo evento origina diferentes primitivas en cada lado. Una CONNECT.request produce una CONNECT.indication en el lado contrario, y la CONNECT.response se convierte en CONNECT.confirm. Existe una cierta simetría entre las primitivas, ya que a una CONNECT.request siempre le corresponderá una CONNECT.indication en el lado opuesto (salvo que falle la comunicación).

 

En este ejemplo hemos hecho un servicio confirmado, es decir, hemos verificado que la conexión se establecía, para lo cual ha tenido que enviarse un paquete en cada sentido. Se podría haber hecho una conexión no confirmada, para lo cual sencillamente se habría emitido la CONNECT.request y la CONNECT.indication.

 

Una vez establecida la conexión lo normal sería transferir datos, y finalmente terminar la conexión. Un ejemplo del conjunto de primitivas que se emitirían a lo largo de una conexión podría ser el siguiente:

 

 

 

 

Aquí hemos introducido cuatro nuevas primitivas para poder transferir datos y terminar la conexión. Obsérvese que como antes una primitiva request va seguida siempre de una indication en el lado contrario. En este ejemplo hemos supuesto que se intercambiaban únicamente dos paquetes de datos.

 

Como ya hemos dicho las primitivas pueden llevar parámetros, y de hecho casi siempre los llevan. Por ejemplo una CONNECT.request llevará la máquina con la que se desea conectar, una CONNECT.indication dirá la máquina que quiere conectar con nosotros, etc. La descripción detallada de estos argumentos, su significado, etc., no es parte de la especificación de las primitivas (y por tanto del servicio) sino del protocolo. El protocolo puede modificarse sin necesidad de cambiar las primitivas. Por ejemplo, un protocolo puede establecer que el servicio de establecimiento de conexión sea confirmado y otro que no lo sea, y ambos pueden utilizar el mismo conjunto de primitivas antes descrito.

 

Una vez más diremos que la interfaz no forma parte del protocolo. Por ejemplo imaginemos en el caso anterior que las entidades A.n y A.n-1 acuerdan que la SDU estará codificada en EBCDIC, mientras que B.n y B.n-1 acuerdan utilizar ASCII. Si el protocolo de la capa n-1 establece que la PDU estará en ASCII, entonces A.n-1 sabe que deberá realizar la conversión de códigos cada vez que construya una PDU a partir de una SDU, o viceversa.

 

1.4      MODELOS DE REFERENCIA

 

Hasta aquí hemos hablado del modelo de capas en un sentido genérico. Vamos a hablar ahora con cierto detalle de las dos arquitecturas de redes más importantes en la actualidad, correspondientes a los protocolos OSI (Open Systems Interconnection) y TCP/IP (Transmission Control Protocol/Internet Protocol). Conviene destacar que la arquitectura es una entidad abstracta, más general que los protocolos o las implementaciones concretas en que luego se materializan éstos. Típicamente para cada capa de una arquitectura existirán uno o varios protocolos, y para cada protocolo habrá múltiples implementaciones. Las implementaciones cambian continuamente; los protocolos ocasionalmente se modifican o aparecen otros nuevos que coexisten con los anteriores o los dejan anticuados; sin embargo una vez definida una arquitectura ésta permanece esencialmente intacta y muy raramente se modifica.

 

1.4.1    El modelo de referencia OSI

 

Después de la especificación de SNA por parte de IBM cada fabricante importante definió su propia arquitectura de redes; así la evolución de los productos de comunicaciones estaba garantizada, pero no se había resuelto el problema de la interoperabilidad entre diferentes fabricantes. Debido a la posición de hegemonía que IBM disfrutaba en los años 70 y principios de los ochenta la compatibilidad con IBM era un requisito necesario, por lo que la mayoría de los fabricantes tenían implementaciones de los protocolos SNA para sus productos, o estas estaban disponibles a través de terceros. Así, la forma mas sencilla de interconectar dos equipos cualesquiera era conseguir que ambos hablaran SNA.

 

En 1977 la ISO (International Organization for Standardization) consideró que esta situación no era la mas conveniente, por lo que entre 1977 y 1983 definió la arquitectura de redes OSI con el fin de promover la creación de una serie de estándares que especificaran un conjunto de protocolos independientes de cualquier fabricante. Se pretendía con ello no favorecer a ninguno a la hora de desarrollar implementaciones de los protocolos correspondientes, cosa que inevitablemente habría ocurrido si se hubiera adoptado alguna de las arquitecturas existentes, como la SNA de IBM o la DNA (Digital Network Architecture) de Digital. Se esperaba llegar a convertir los protocolos OSI en el auténtico Esperanto de las redes telemáticas. Por diversas razones que veremos luego el éxito de los protocolos OSI en la práctica ha sido mucho menor de lo inicialmente previsto (cosa que por cierto también le ha ocurrido al Esperanto, aparentemente).

 

Seguramente la aportación más importante de la iniciativa OSI ha sido precisamente su arquitectura. Ésta ha servido como marco de referencia para describir multitud de redes correspondientes a diversas arquitecturas, ya que la arquitectura OSI es bien conocida en entornos de redes, y su generalidad y no dependencia de ningún fabricante en particular le hacen especialmente adecuada para estos fines. Por este motivo generalmente a la arquitectura OSI se la denomina Modelo de Referencia OSI, o también OSIRM (OSI Reference Model). Por extensión hoy en día se utiliza a menudo el término modelo de referencia para referirse a una arquitectura de red; así oímos hablar del Modelo de Referencia TCP/IP, el Modelo de Referencia ATM, etc.

 

El modelo OSI define siete capas, curiosamente como en la arquitectura SNA si bien la funcionalidad es diferente. Las capas son las siguientes:

 

o    Física

o    Enlace

o    Red

o    Transporte

o    Sesión

o    Presentación

o    Aplicación

 

La ISO ha especificado protocolos para todas las capas, aunque algunos son poco utilizados. En función del tipo de necesidades del usuario no siempre se utilizan todas ellas.

 

Pasaremos a describir brevemente las funciones desarrolladas por cada una de las capas.

 

1.4.1.1       La Capa Física

 

Esta capa transmite los bits entre dos entidades (nodos) directamente conectadas. Puede tratarse de un enlace punto a punto o de una conexión multipunto (una red broadcast, por ejemplo Ethernet). La comunicación puede ser dúplex, semi-dúplex o simplex. Si la información se transmite por señales eléctricas se especifican los voltajes permitidos y su significado (1 ó 0) y análogamente para el caso de fibra óptica. Se especifican las características mecánicas del conector, la señalización básica, etc.

 

Como ejemplos de la capa física podemos mencionar las norma EIA RS-232-C, utilizada por las puertas COM de los ordenadores personales, la EIA-RS-449, CCITT X.21/X.21bis, CCITT V.35. Las normas de redes locales incluyen en sus especificaciones la capa física (IEEE 802.3 o Ethernet, IEEE 802.5 o Token Ring, ISO 9314 o FDDI, etc.)

 

Muchas de las normas que existen en la capa física se refieren a la interfaz utilizada para conectar un ordenador con un módem o dispositivo equivalente, que a través de una línea telefónica conecta con otro módem y ordenador en el extremo opuesto. Este es el caso por ejemplo de las normas EIA RS-232-C, EIA-RS-449, CCITT X.21/X.21bis y CCITT V.35 antes mencionadas. En estos el conector del ordenador y el módem son de diferente ‘sexo’ (macho o hembra). En este contexto se suele utilizar la denominación DTE (Data Terminal Equipment) para referirse al ordenador y DCE (Data Circuit-Terminating Equipment) para referirse al módem. El ‘módem’ en ocasiones no es más que un adaptador, ya que por ejemplo la norma X.21 se utiliza para líneas digitales. En sentido general al equipo que actúa como adaptador entre el ordenador y el medio de transmisión se le denomina CSU/DSU (Channel Service Unit/ Data Service Unit).

 

1.4.1.2       La capa de enlace (data link)

 

La principal función de la capa de enlace es ofrecer un servicio de comunicación fiable a partir de los servicios que recibe de la capa física, también entre dos entidades contiguas de la red. Esto supone que se realice detección y posiblemente corrección de errores. A diferencia de la capa física, que transmitía los bits de manera continua, la capa de enlace transmite los bits en grupos denominados tramas (frames en inglés) cuyo tamaño es típicamente de unos pocos cientos a unos pocos miles de bytes. En caso de que una trama no haya sido transmitida correctamente se deberá enviar de nuevo; también debe haber mecanismos para reconocer cuando una trama se recibe duplicada. Generalmente se utiliza algún mecanismo de control de flujo, para evitar que un transmisor rápido pueda ‘abrumar’ a un receptor lento.

 

Las redes broadcast utilizan funciones especiales de la capa de enlace para controlar el acceso al medio de transmisión, ya que éste es compartido por todos los nodos de la red. Esto añade una complejidad a la capa de enlace que no está presente en las redes basadas en líneas punto a punto, razón por la cual en las redes broadcast la capa de enlace se subdivide en dos subcapas: la inferior, denominada subcapa MAC (Media Access Control) se ocupa de resolver el problema de acceso al medio, y la superior, subcapa LLC (Logical Link Control) cumple una función equivalente a la capa de enlace en las líneas punto a punto.

 

Ejemplos de protocolos de la capa de enlace son el ISO 7776, la capa de enlace de X.25 (de la ITU) o el  ISO HDLC. Como ejemplos de protocolos de la subcapa MAC podemos citar los IEEE 802.3 (Ethernet), IEEE 802.5 (Token Ring) o el ISO 9314 (FDDI). El protocolo de subcapa LLC de todas las redes locales broadcast es el IEEE 802.2.

 

1.4.1.3       La capa de red

 

La capa de red se ocupa del control de la subred. Esta es la capa que tiene ‘conciencia’ de la topología de la red, y se ocupa de decidir por que ruta va a ser enviada la información; la decisión de la ruta a seguir puede hacerse de forma estática, o de forma dinámica en base a información obtenida de otros nodos sobre el estado de la red.

 

De forma análoga a la capa de enlace la capa de red maneja los bits en grupos discretos que aquí reciben el nombre de paquetes; motivo por el cual a veces se la llama la capa de paquete. Los paquetes tienen tamaños variables, pudiendo llegar a ser muy elevados, sobre todo en protocolos recientes, para poder aprovechar eficientemente la elevada velocidad de los nuevos medios de transmisión (fibra óptica, ATM, etc.). Por ejemplo en TCP/IP el tamaño máximo de paquete es de 64 KBytes, pero en el nuevo estándar, llamado IPv6, el tamaño máximo puede llegar a ser de 4 GBytes (4.294.967.296 Bytes).

 

Entre las funciones de la capa de red cabe destacar, aparte de la ya mencionada de elegir la ruta a seguir, el control del tráfico para evitar situaciones de congestión o 'atascos'. En el caso de ofrecer servicios con QoS el nivel de red debe ocuparse de reservar los recursos necesarios para poder ofrecer el servicio prometido con garantías. También debe ser capaz de efectuar labores de contabilidad del tráfico en caso necesario (por ejemplo si el servicio se factura en base a la cantidad de datos transmitidos).

 

En la capa de red es donde con mas intensidad se observa la distinción entre servicios orientados y no orientados a conexión (CONS vs CLNS). En el curso veremos en detalle las redes ATM, que en el nivel de red dan un servicio de tipo CONS, y las redes TCP/IP, que en el nivel de red dan un servicio de tipo CLNS.

 

La capa de red es la más importante en redes de conmutación de paquetes (tales como X.25 o TCP/IP). Algunos ejemplos de protocolos utilizados en la capa de red son los protocolos de nivel de paquete y nivel de pasarela CCITT X.25 y X.75, el IP (Internet Protocol), CCITT/ITU-T Q.931, Q.933, Q.2931, y el OSI CLNP (ConnectionLess Network Protocol).

 

En las redes de tipo broadcast el nivel de red es casi inexistente, ya que desde un punto de vista topológico podemos considerar que en una red broadcast los nodos están interconectados todos con todos, por lo que no se toman decisiones de encaminamiento. Sin embargo veremos que la unión de redes broadcast mediante puentes suscita en algunos casos la necesidad de efectuar tareas propias del nivel de red en el nivel de enlace.

 

1.4.1.4       La capa de transporte

 

La capa de transporte es la primera que se ocupa de comunicar directamente nodos terminales, utilizando la subred como un medio e transporte transparente gracias a los servicios obtenidos de la capa de red. Por esta razón se la ha llamado históricamente la capa host-host. También se suele decir que es la primera capa extremo a extremo.

 

La principal función de la capa de transporte es fragmentar de forma adecuada los datos recibidos de la capa superior (sesión) para transferirlos a la capa de red, y asegurar que los fragmentos llegan y son recompuestos correctamente en su destino.

 

En condiciones normales la capa de transporte solicita a la capa de red una conexión diferente por cada solicitud recibida de la capa de sesión, pero puede haber razones de costo que aconsejen multiplexar diferentes conexiones en la capa de sesión sobre una sola conexión en la capa de red o, inversamente, razones de rendimiento pueden requerir que una conexión solicitada por la capa de sesión sea atendida por varias conexiones en la capa de red; en ambos casos la capa de transporte se ocupará de hacer la multiplexación mas adecuada de forma transparente a la capa de sesión.

 

La capa de transporte establece el tipo de servicio que recibe la capa de sesión, y en último extremo los usuarios. Éste podría ser por ejemplo un servicio libre de errores que entrega los mensajes en el mismo orden en que se envían; también podría ser un servicio de datagramas, es decir, mensajes independientes sin garantía en cuanto al orden de entrega ni confirmación de la misma, o un servicio broadcast o multicast en que los paquetes se distribuyen a múltiples destinos simultáneamente.

 

El control de flujo, que ha aparecido en capas anteriores, es necesario también en la capa de transporte para asegurar que un host rápido no satura a uno lento. La capa de transporte realiza también su propio control de errores, que resulta ahora esencial pues algunos protocolos modernos como Frame Relay o ATM han reducido o suprimido totalmente el control de errores de las capas inferiores, ya que con las mejoras en la tecnología de transmisión de datos éstos son menos frecuentes y se considera mas adecuado realizar esta tarea en el nivel de transporte.

 

Salvo el caso de transmisiones multicast o broadcast el nivel de transporte se ocupa siempre de una comunicación entre dos entidades, lo cual le asemeja en cierto sentido al nivel de enlace. Por esto existen grandes similitudes entre ambas capas en cuestiones tales como el control de errores o control de flujo.

 

Ejemplos de protocolos de transporte incluyen el CCITT X.224, también llamado protocolo de transporte OSI TP4 (Transport Protocol 4). En Internet existen dos protocolos de transporte: TCP y UDP.

 

1.4.1.5       La capa de sesión

 

La capa de sesión es la primera que es accesible al usuario, y es su interfaz más básica con la red. Por ejemplo, mediante los servicios de la capa de sesión un usuario podría establecer una conexión como terminal remoto de otro ordenador. En un sistema multiusuario la capa de sesión se ocupa de ofrecer un SAP a cada usuario para acceder al nivel de transporte.

 

1.4.1.6       La capa de presentación

 

Hasta aquí nos hemos preocupado únicamente de intercambiar bits (o bytes) entre dos usuarios ubicados en dos ordenadores diferentes. Lo hemos hecho de manera fiable y entregando los datos a la sesión, es decir al usuario, pero sin tomar en cuenta el significado de los bits transportados. La capa de presentación se ocupa de realizar las conversiones necesarias para asegurar que dichos bits se presentan al usuario de la forma esperada. Por ejemplo, si se envía información alfanumérica de un ordenador ASCII a uno EBCDIC será preciso efectuar una conversión, o de lo contrario los datos no serán interpretados correctamente. Lo mismo podríamos decir de la transferencia de datos enteros, flotantes, etc. cuando la representación de los datos difiere en los ordenadores utilizados.

 

1.4.1.7       La capa de aplicación

 

La capa de aplicación comprende los servicios que el usuario final está acostumbrado a utilizar en una red telemática, por lo que a menudo los protocolos de la capa de aplicación se denominan servicios. Dado que se crean continuamente nuevos servicios, existen muchos protocolos para la capa de aplicación, uno o más por cada tipo de servicio.

 

Ejemplos de protocolos estándar de la capa de aplicación son el X.400 o X.500 de la ITU, los protocolos SMTP, FTP y HTTP de Internet, etc.

 

1.4.1.8       Transmisión de datos en el modelo OSI

 

La transmisión de datos en el modelo OSI se realiza de forma análoga a lo ya descrito para el modelo de capas. La capa de aplicación recibe los datos del usuario y les añade una cabecera (que denominamos cabecera de aplicación), constituyendo así la PDU (Protocol Data Unit) de la capa de aplicación. La cabecera contiene información de control propia del protocolo en cuestión. La PDU es transferida a la capa de aplicación en el nodo de destino, la cual recibe la PDU y elimina la cabecera entregando los datos al usuario. En realidad la PDU no es entregada directamente a la capa de aplicación en el nodo de destino, sino que es transferida a la capa de presentación en el nodo local a través de la interfaz; esto es una cuestión secundaria para la capa de aplicación, que ve a la capa de presentación como el instrumento que le permite hablar con su homóloga en el otro lado.

 

A su vez la capa de presentación recibe la PDU de la capa de aplicación y le añade una cabecera propia, (cabecera de presentación) creando la PDU de la capa de presentación  Esta PDU es transferida a la capa de presentación en el nodo remoto usando a la capa de sesión como instrumento para la comunicación, de manera análoga a lo ya descrito para la capa de aplicación.

 

En el caso mas general cada capa añade una cabecera propia a los datos recibidos de la capa superior, y construye así su PDU. La capa homóloga del nodo de destino se ocupará de extraer dicha cabecera, interpretarla, y entregar la PDU correspondiente a la capa superior. En algunos casos la cabecera puede no existir. En el caso particular de la capa de enlace además de la cabecera añade una cola al construir la PDU (trama) que entrega a la capa física.

 

Volviendo por un momento a nuestra analogía de los dos ejecutivos que intercambian un documento, vemos que a medida que vamos descendiendo capas en el envío (jefe, secretaria, motorista, líneas aéreas) el documento va recibiendo nuevos envoltorios que contienen a los anteriores. A la llegada el paquete es procesado de forma simétrica, es decir se le va quitando en cada capa el envoltorio correspondiente antes de pasarlo a la siguiente.

 

1.4.2    El modelo de referencia TCP/IP

 

En 1969 la agencia ARPA (Advanced Research Projects Agency) del Departamento de Defensa (DoD, Department of Defense) de los Estados Unidos inició un proyecto de interconexión de ordenadores mediante redes telefónicas. Al ser un proyecto desarrollado por militares en plena guerra fría un principio básico de diseño era que la red debía poder resistir la destrucción de parte de su infraestructura (por ejemplo a causa de un ataque nuclear), de forma que dos nodos cualesquiera pudieran seguir comunicados siempre que hubiera alguna ruta que los uniera. Esto se consiguió en 1972 creando una red de conmutación de paquetes denominada ARPAnet, la primera de este tipo que operó en el mundo. La conmutación de paquetes unida al uso de topologías malladas mediante múltiples líneas punto a punto dio como resultado una red altamente fiable y robusta.

 

La ARPAnet fue creciendo paulatinamente, y pronto se hicieron experimentos utilizando otros medios de transmisión de datos, en particular enlaces por radio y vía satélite; los protocolos existentes tuvieron problemas para interoperar con estas redes, por lo que se diseñó un nuevo conjunto o pila de protocolos, y con ellos una arquitectura. Este nuevo conjunto se denominó TCP/IP (Transmission Control Protocol/Internet Protocol) nombre que provenía de los dos protocolos más importantes que componían la pila; la nueva arquitectura se llamó sencillamente modelo TCP/IP, los nuevos protocolos fueron especificados por vez primera por Cerf y Kahn en un artículo publicado en 1974. A la nueva red, que se creó como consecuencia de la fusión de ARPAnet con las redes basadas en otras tecnologías de transmisión, se la denominó Internet.

 

La aproximación adoptada por los diseñadores del TCP/IP fue mucho más pragmática que la de los autores del modelo OSI. Mientras que en el caso de OSI se emplearon varios años en definir con sumo cuidado una arquitectura de capas donde la función y servicios de cada una estaban perfectamente definidas, y solo después se planteó desarrollar los protocolos para cada una de ellas, en el caso de TCP/IP la operación fue a la inversa; primero se especificaron los protocolos, y luego se definió el modelo como una simple descripción de los protocolos ya existentes. Por este motivo el modelo TCP/IP es mucho más simple que el OSI. También por este motivo el modelo OSI se utiliza a menudo para describir otras arquitecturas, como por ejemplo la TCP/IP, mientras que el modelo TCP/IP nunca suele emplearse para describir otras arquitecturas que no sean la suya propia.

 

En el modelo TCP/IP se pueden distinguir cuatro capas:

 

o    La capa host-red

o    La capa internet

o    La capa de transporte

o    La capa de aplicación

 

Pasemos a describirlas brevemente.

 

1.4.2.1       La capa host-red

 

Esta capa engloba realmente las funciones de la capa física y la capa de enlace del modelo OSI. El modelo TCP/IP no dice gran cosa respecto a ella, salvo que debe ser capaz de conectar el host a la red por medio de algún protocolo que permita enviar paquetes IP. Podríamos decir que para el modelo TCP/IP esta capa se comporta como una ‘caja negra’. Cuando surge una nueva tecnología de red (por ejemplo ATM) una de las primeras cosas que aparece es un estándar que especifica de que forma se pueden enviar sobre ella paquetes IP; a partir de ahí la capa internet ya puede utilizar esa tecnología de manera transparente.

 

1.4.2.2       La capa internet

 

Esta capa es el ‘corazón’ de la red. Su papel equivale al desempeñado por la capa de red en el modelo OSI, es decir, se ocupa de encaminar los paquetes de la forma más conveniente para que lleguen a su destino, y de evitar que se produzcan situaciones de congestión en los nodos intermedios. Debido a los requisitos de robustez impuestos en el diseño, la capa internet da únicamente un servicio de conmutación de paquetes no orientado a conexión. Los paquetes pueden llegar desordenados a su destino, en cuyo caso es responsabilidad de las capas superiores en el nodo receptor la reordenación para que sean presentados al usuario de forma adecuada.

 

A diferencia de lo que ocurre en el modelo OSI, donde los protocolos para nada intervienen en la descripción del modelo, la capa internet define aquí un formato de paquete y un protocolo, llamado IP (Internet Protocol), que se considera el protocolo 'oficial' de la arquitectura.

 

1.4.2.3       La capa de transporte

 

Esta capa recibe el mismo nombre y desarrolla la misma función que la cuarta capa del modelo OSI, consistente en permitir la comunicación extremo a extremo (host a host) en la red. Aquí se definen dos protocolos: el TCP (Transmission Control Protocol) ofrece un servicio CONS fiable, con lo que los paquetes (aquí llamados segmentos) llegan ordenados y sin errores. TCP se ocupa también del control de flujo extremo a extremo, para evitar que por ejemplo un host rápido sature a un receptor más lento. Ejemplos de protocolos de aplicación que utilizan TCP son el SMTP (Simple Mail Transfer Program, correo electrónico) y el FTP (File Transfer Protocol).

 

El otro protocolo de transporte es UDP (User Datagram Protocol) que da un servicio CLNS, no fiable. UDP no realiza control de errores ni de flujo. Una aplicación típica donde se utiliza UDP es la transmisión de voz y vídeo en tiempo real; aquí el retardo que introduciría el control de errores produciría más daño que beneficio: es preferible perder algún paquete que retransmitirlo fuera de tiempo. Otro ejemplo de aplicación que utiliza UDP es el NFS (Network File System); aquí el control de errores y de flujo se realiza en la capa de aplicación.

 

1.4.2.4       La capa de aplicación

 

Esta capa desarrolla las funciones de las capas de sesión, presentación y aplicación del modelo OSI. La experiencia ha demostrado que las capas de sesión y presentación son de poca utilidad, debido a su escaso contenido, por lo que la aproximación adoptada por el modelo TCP/IP parece mas acertada.

 

La capa de aplicación contiene todos los protocolos de alto nivel que se utilizan para ofrecer servicios a los usuarios. Entre estos podemos mencionar tanto los ‘tradicionales’, que existen desde que se creó el TCP/IP: terminal virtual (TelNet), transferencia de ficheros (FTP), correo electrónico (SMTP) y servidor de nombres (DNS), como los mas recientes, como el servicio de news (NNTP), el Web (HTTP), el Gopher, etc.

 

1.4.3    Comparación de los modelos OSI y TCP/IP

 

Como ya hemos comentado, la génesis del modelo OSI y TCP/IP fue muy diferente. En el caso de OSI primero fue el modelo y después los protocolos, mientras que en TCP/IP el orden fue inverso. Como consecuencia de esto el modelo OSI es mas elegante y esta menos condicionado por ningún protocolo en particular, y se utiliza profusamente como modelo de referencia para explicar todo tipo de redes. El modelo OSI hace una distinción muy clara entre servicios, interfaces y protocolos, conceptos que a menudo se confunden en el modelo TCP/IP. Podríamos decir que la arquitectura (o el modelo) OSI es mas modular y académico que el TCP/IP.

 

Pero este mayor nivel de abstracción también tiene sus inconvenientes. Los diseñadores del modelo OSI no tenían experiencia práctica aplicando su modelo para desarrollar protocolos y olvidaron algunas funcionalidades importantes. Por ejemplo, las redes broadcast no fueron previstas inicialmente en la capa de enlace, por lo que se tuvo que insertar a la fuerza la subcapa MAC para incluirlas. Otro problema era que no se había previsto la interconexión de redes diferentes, cosa que fue como ya hemos visto el alma mater del modelo TCP/IP.

 

El modelo OSI tiene siete capas, mientras que el modelo TCP/IP sólo tiene cuatro. Aunque es desafortunada la fusión de la capa física y la de enlace en una oscura capa host-red, la fusión de las capas de sesión, presentación y aplicación en una sola en el modelo TCP/IP es claramente mas lógica que la del modelo OSI.

 

Otra diferencia fundamental estriba en los servicios orientados a conexión (CONS) o no orientados a conexión (CLNS). El modelo OSI soporta ambos modos en la capa de red, pero sólo el modo CONS en la capa de transporte, que es la que percibe el usuario. El modelo TCP/IP en cambio soporta solo CLNS en la capa de red, pero ambos en la de transporte. Quizá un sutil detalle pueda explicar esta diferencia: el servicio CONS a nivel de red hace mucho mas sencillo facturar por tiempo de conexión, cosa a la que están muy acostumbradas las compañías telefónicas, que son las que han participado activamente en los comités técnicos de ISO que diseñaron el modelo OSI.

 

En la práctica los protocolos basados en las normas estándar OSI definidas por la ISO nunca llegaron a tener gran relevancia a nivel mundial, a pesar de que la mayoría de los grandes fabricantes de ordenadores y compañías telefónicas impulsaron su utilización ofreciendo productos y servicios basados en ellos. Las razones principales que motivaron este fenómeno las podemos resumir en los siguientes puntos:

 

 

 

 

 

Aunque por la exposición anterior pueda parecer lo contrario, también existen aspectos negativos en los protocolos TCP/IP. Por un lado no se distinguen claramente los conceptos de servicio, interfaz y protocolo. En segundo lugar, el 'modelo' TCP/IP fue diseñado con posterioridad al protocolo, intentando imitar la labor de síntesis que se había hecho en el modelo OSI (podríamos decir que es como si se hubieran cortado los patrones después de cosido el traje). En tercero esta la 'caja negra' que hemos llamado capa host-red y que en el modelo TCP/IP es mas bien una interfaz que una capa, ya que lo único que se especifica de ella es que ha de ser capaz de transmitir paquetes IP. Como consecuencia de esto el modelo TCP/IP no distingue entre la capa física y la de enlace, ya que ambas entran en la 'capa' host-red.

 

Por otro lado, aun cuando los protocolos IP y TCP fueron diseñados concienzudamente y bien implementados, algunos protocolos, especialmente del nivel de aplicación, fueron el resultado de una improvisación para resolver un problema concreto; como las implementaciones se distribuían después de forma gratuita se extendían con rapidez por lo que resultaban difíciles de sustituir; un ejemplo de esto lo tenemos en el protocolo TelNet que se utiliza ampliamente a pesar de no tener soporte para interfaz gráfica, ratón, etc.

 

Durante la década de los ochenta en Europa las redes académicas de la mayoría de los países (incluido España) utilizaban protocolos OSI por imposición de los respectivos gobiernos y de la Comunidad Europea; a la vista de los problemas ya mencionados de los productos OSI, y la extensión y buen resultado de los protocolos TCP/IP, se empezaron a ofrecer en 1991 servicios basados en TCP/IP, lo cual provocó su inmediata difusión por toda Europa y el estancamiento y casi desaparición de los servicios basados en protocolos OSI.

 

Probablemente el único protocolo OSI que sobrevivirá la batalla contra TCP/IP será el X.500, protocolo a de aplicación que implementa los servicios de directorio. Estos estaban cubiertos en TCP/IP por un servicio denominado Whois de funcionalidad mucho mas pobre. Probablemente es el hecho de no haber una alternativa en TCP/IP lo que ha salvado a X.500, que actualmente funciona sobre TCP/IP.

 

Consecuentemente con los puntos fuertes y débiles de cada modelo y protocolo, en el curso nos basaremos en una versión modificada del modelo OSI, del cual hemos suprimido la capa de sesión y la de presentación. Sin embargo utilizaremos este modelo para describir fundamentalmente protocolos TCP/IP, si bien también hablaremos de otros mas modernos y que en muchos casos se utilizan como medio de transporte para TCP/IP. En la tabla siguiente hacemos un resumen del modelo y los protocolos más comunes de cada capa.

 

 

Capa

Protocolo

Aplicación

TCP/IP (DNS, SMTP, SNMP, NNTP, HTTP)

Transporte

TCP/IP (TCP, UDP) ATM (AAL1, AAL2, AAL3/4, AAL5)

Red

TCP/IP (IP, ICMP, ARP, RARP, OSPF, BGP, IPv6), ATM (Q2931)

Enlace

ISO( HDLC), TCP/IP (SLIP, PPP), ATM, LANs

Física

N-ISDN, B-ISDN (ATM), GSM, SONET/SDH, LANs

Cable coaxial, cable UTP, fibra óptica, microondas, radioenlaces, satélite

 

Tabla 1.1.- Ejemplos de protocolos en cada uno de los niveles del modelo de red OSI-TCP/IP

 

 

1.5      TRANSMISIÓN DE DATOS EN REDES WAN

 

Dado que cualquier usuario puede solicitar un acceso a las redes que operan las compañías telefónicas, a éstas se las denomina redes públicas de datos (PDN, Public Data Networks). Cuando se desea interconectar ordenadores o redes locales ubicadas a cierta distancia es preciso normalmente utilizar los servicios de alguna de esas redes públicas. Dichos servicios pueden clasificarse de acuerdo con el tipo de conexión que ofrecen, permanente o temporal, y con el tipo de circuito, real o virtual. Esquemáticamente sería:

 

 

Tipo de circuito

Tipo de conexión

 

Permanente

Temporal

Real

Líneas dedicadas

Redes de conmutación de circuitos

(RTB, RDSI, GSM)

Virtual

Redes de conmutación con PVCs (X.25, Frame Relay, ATM)

Redes de conmutación con SVCs (X.25, Frame Relay, ATM)

 

Tabla 1.2.- Clasificación de los tipos de servicio de transmisión de datos por líneas telefónicas según el tipo de circuito y conexión.

 

 

En la práctica suele utilizarse en cada caso el servicio más conveniente por sus prestaciones y precio, por lo que las redes suelen mezclar varios de los servicios que hemos mencionado. Vamos a dar una pequeña descripción de cada uno de ellos.

 

1.5.1    Líneas dedicadas

 

La solución mas simple para una red es el circuito real permanente, constituido por lo que se conoce como líneas dedicadas o líneas alquiladas (leased lines en inglés); está formado por un enlace punto a punto permanente entre los ordenadores o routers que se desean unir. Una línea dedicada es únicamente un medio de transmisión de datos a nivel físico, todos los protocolos de niveles superiores han de ser suministrados por el usuario.

 

La red ARPAnet que hemos visto anteriormente se constituyó mediante líneas dedicadas. La Internet incorpora actualmente todos los servicios que hemos mencionado.

 

Normalmente no es posible contratar una línea dedicada de una velocidad arbitraria, existen unas velocidades prefijadas que son las que suelen ofrecer las compañías telefónicas y que tienen su origen en la propia naturaleza del sistema telefónico, como veremos más adelante. Por ejemplo Telefónica de España ofrece líneas dedicadas de las siguientes velocidades: 9,6, 64, 128, 192, 256, 512 y 2.048 Kb/s. El precio de una línea dedicada es una cuota fija mensual que depende de la velocidad y de la distancia entre los dos puntos que se unen. La cuota es independiente del uso (corresponde por tanto con lo que se conoce como ‘tarifa plana’).

 

En las líneas dedicadas la capacidad contratada está reservada de forma permanente en todo el trayecto. Su costo es elevado y por tanto su instalación generalmente sólo se justifica cuando el uso es elevado (al menos tres o cuatro horas al día). Por este motivo las líneas dedicadas no suelen utilizarse en casos en que se necesita una conexión esporádica, por ejemplo una oficina que requiere conectarse unos minutos al final del día para transferir unos ficheros, o un usuario doméstico que se conecta a Internet en los ratos de ocio.

 

Para mostrar el elevado consumo de recursos que representan las líneas dedicadas pondremos un ejemplo: supongamos que la empresa X con sede central en Valencia ha abierto treinta sucursales en distintos puntos de España, y necesita que los ordenadores de las sucursales comuniquen con la sede central todos los días durante treinta minutos cada uno para transferir 2 MBytes de información. Para esto la empresa solicita 30 líneas dedicadas de 64 Kb/s a la compañía telefónica, constituyendo una red con topología de estrella. Aunque cada línea se utiliza únicamente el 2% del tiempo (0,5/24) con una eficiencia del 14% (2 MB*8/(0,064*30*60)) el ancho de banda está reservado en su totalidad de forma permanente. Además, se requieren treinta interfases físicas en el servidor, lo cual encarece y complica bastante la red.

 

1.5.2    Conmutación de circuitos

 

La conmutación de circuitos supone una utilización más óptima de los recursos que las líneas dedicadas, ya que la conexión extremo a extremo sólo se establece durante el tiempo necesario. Para la transmisión de datos mediante conmutación de circuitos se utiliza la misma red que para la transmisión de la voz, mediante módems o adaptadores apropiados. Genéricamente se la denomina Red Telefónica Conmutada (RTC) o PSTN (Public Switched Telephone Network) y comprende en realidad tres redes diferentes:

 

La Red de Telefonía Básica (RTB) también llamada POTS (Plain Old Telephone Service); Está formada por las líneas analógicas tradicionales y por tanto requiere el uso de módems; la máxima velocidad que puede obtenerse en este tipo de enlaces es de 33.6 Kb/s, salvo el caso en que la transmisión se origine en un acceso RDSI, en cuyo caso puede obtenerse una velocidad máxima de 56 Kb/s.

 

La Red Digital de Servicios Integrados (RDSI) también llamada ISDN (Integrated Services Digital Network). Está formada por enlaces digitales hasta el bucle de abonado, por lo que el circuito es digital de extremo a extremo. La velocidad por circuito (también llamado canal) es de 64 Kb/s, pudiendo con relativa facilidad agregarse varios canales en una misma comunicación para obtener mayor ancho de banda.

 

La Red GSM (Global System for Mobile communications). Se trata de conexiones digitales, como en el caso de la RDSI, pero por radioenlaces. La capacidad máxima de un circuito GSM cuando se transmiten datos es de 9.6 Kb/s.

 

La RDSI apareció en España hacia 1994, y la red GSM hacia 1995. Dado que hasta fechas recientes el único sistema de RTC era la RTB a menudo se utilizan ambos términos indistintamente para indicar la red telefónica analógica. Para evitar confusiones conviene usar el término RTB al referirse a la red telefónica analógica, y reservar el término RTC para referirnos al conjunto de todas las redes conmutadas existentes, ahora o en el futuro.

 

En el caso de la RTC cualquier par de usuarios puede comunicar entre sí siempre que conozca su dirección o número de teléfono, por lo que podemos ver la RTC como una gran nube a la que se conectan multitud de usuarios. Una vez establecido un circuito entre dos abonados la función que desempeña para los protocolos de nivel superior es equivalente a la de una línea dedicada.

 

Telefónica de España dispone de los tres tipos de RTC (RTB, RDSI y GSM), con tarificación por tiempo de conexión. En el caso de RTB y RDSI se aplica una tarificación con cuatro ámbitos: metropolitano, provincial, nacional e internacional (éste último depende del país). En el caso de la red GSM (conocida como MoviStar) hay sólo dos ámbitos: nacional e internacional. También existen servicios GSM ofrecidos por Airtel y Retevisión (Amena).

 

Es posible la interconexión entre ordenadores de redes diferentes (RDSI, RTB o GSM); en cuyo caso la velocidad de transmisión será igual a la más lenta de las conexiones implicadas; en algunos casos puede ser necesario disponer de equipos específicos o contratar servicios especiales.

 

Siguiendo con nuestro ejemplo anterior de la empresa X, en vez de líneas dedicadas se podría haber utilizado la red telefónica conmutada (por ejemplo la RDSI). En este caso el costo de cada conexión es normalmente menor, ya que sólo se paga por el tiempo que se esta utilizando. Además, la sede central podría contratar menos de treinta enlaces si se planifica un horario escalonado de conexión de las sucursales, o si simplemente se considera que la probabilidad de que todas llamen a la vez es muy reducida. Esto se conoce como sobresuscripción (‘oversubscription’) o sobrereserva (‘overbooking’) y es algo muy normal en redes cuando el número de usuarios es razonablemente elevado y se puede jugar con el factor estadístico (es algo similar a lo que hacen las compañías aéreas con los billetes de avión). Por ejemplo, supongamos que inicialmente la sede central contrata diez accesos y observa que solo durante el 0,1% del tiempo están todos utilizados; entonces se puede afirmar que el servicio tiene una disponibilidad del 99,9%, es decir, el 99,9% del tiempo hay líneas libres para recibir llamadas de las sucursales; a la vista de esto la empresa puede decidir si aumenta o reduce el número de accesos, según la disponibilidad que se quiera tener y el costo de cada acceso (aquí además del costo de la compañía telefónica se deberá tener en cuenta el de interfaces , módems, equipo auxiliar, etc.).

 

1.5.3    Conmutación de paquetes

 

Con la conmutación de circuitos hemos avanzado en el aprovechamiento de la infraestructura. Sin embargo nos encontramos aún con tres inconvenientes:

 

En ocasiones no podremos establecer la conexión por no haber circuitos libres, salvo que contratemos un número de circuitos igual al máximo número posible de conexiones simultáneas, lo cual sería muy costoso.

 

Que un circuito se esté utilizando no garantiza que se esté aprovechando el ancho de banda que tiene asignado; en nuestro ejemplo cada sucursal está conectada 30 minutos para enviar 2 MBytes de información, que cual supone un aprovechamiento del 14% suponiendo que se trata de conexiones de 64 Kb/s.

 

El servidor ha de tener una conexión física por cada circuito, aun cuando la ocupación media sea reducida.

 

Para evitar estos inconvenientes se crearon redes en las que el usuario puede mantener una única conexión física a la red, y sobre ella varios circuitos virtuales con equipos remotos. De esta forma podemos dotar a nuestro ordenador central de treinta circuitos virtuales, con lo que las sucursales siempre van a encontrar un circuito libre sobre el cual establecer la conexión. Al mantener un solo enlace físico el costo de las interfaces, módems, etc., es fijo e independiente del número de circuitos virtuales utilizados. Lógicamente al tener el ordenador central que atender a todas las conexiones por el mismo enlace físico sería conveniente (aunque no necesario) incrementar la velocidad de este; en nuestro ejemplo con conexiones el 2% del tiempo y con un tráfico medio del 14%; para las 30 oficinas agregadas nos daría una ocupación media del 8,4% (0.02x0.14x30) suponiendo un reparto homogéneo, cosa poco probable. Como previsiblemente muchas oficinas querrán conectar más o menos a la misma hora sería conveniente ampliar el enlace del servidor a 128 o 256 Kb/s por ejemplo para evitar congestión en horas punta.

 

Para poder definir circuitos virtuales es preciso disponer de equipos inteligentes en la red que puedan hacer la distribución de los paquetes en función de su destino. Por esto a las redes que permiten crear circuitos virtuales se las denomina redes de conmutación de paquetes, y en cierto sentido podemos considerarlas como la evolución de las redes de conmutación de circuitos. Existen dos tipos de redes de conmutación de paquetes, según ofrezcan servicios orientados a conexión o no orientados a conexión (envío de datagramas). La primera red de conmutación de paquetes que existió fue como ya hemos visto ARPAnet, pero como no era orientada a conexión no se adaptaba bien a un servicio de compañía telefónica. Para facilitar la facturación las redes públicas de conmutación de paquetes suelen ofrecer servicios orientados a conexión en el nivel de red. Actualmente hay tres tipos de redes públicas de conmutación de paquetes orientadas a conexión estandarizadas: X.25, Frame Relay y ATM. Las tres representan implementaciones bastante completas de los tres primeros niveles del Modelo de Referencia OSI, y tienen muchos puntos en común, según veremos a continuación.

 

La subred de una red de conmutación de paquetes se constituye mediante conmutadores unidos entre sí por líneas dedicadas. La distribución de los conmutadores y la forma como éstos se interconectan, es decir la topología de la red, es algo que decide el proveedor del servicio y que fija la carga máxima que la red podrá soportar en lo que se refiere a tráfico entre conmutadores; la topología fija también la fiabilidad de la red, es decir cuan resistente será a fallos; por ejemplo una red muy mallada será muy fiable y tendrá una gran disponibilidad, ya que en caso de avería de un enlace o conmutador será fácil encontrar un camino alternativo. Cuando un usuario desea conectar un equipo a la red el acceso se hace normalmente mediante una línea dedicada entre el equipo a conectar y el conmutador mas próximo del proveedor de servicio. La velocidad de la conexión entre el equipo y el conmutador establece de entrada un máximo a las prestaciones que ese usuario podrá obtener de la red. Puede haber además otras limitaciones impuestas por la capacidad de la red, por saturación o porque se hayan impuesto limitaciones de acuerdo con lo contratado por el usuario con el proveedor del servicio.

 

Aunque estamos considerando el caso en que la red de conmutación de paquetes la gestiona una compañía Telefónica (con lo que tenemos una red pública de conmutación de paquetes), también es posible que una organización o conjunto de organizaciones (por ejemplo una gran empresa, una administración o un conjunto de universidades) establezcan una red privada basada en X.25, Frame Relay o ATM. En este caso normalmente la gestión de la red se asigna a algún grupo especializado (por ejemplo el departamento de comunicaciones en el caso de la empresa) que se ocupa de diseñar topología, solicitar los enlaces correspondientes, instalar los conmutadores, etc. Si se desea que la red privada esté interconectada con la red pública es preciso prever que al menos uno de los conmutadores de la red privada esté conectado con la red pública. Desde el punto de vista técnico ambas redes son equivalentes en su funcionamiento, salvo que normalmente en una red privada no se tarifica la utilización, por lo que el control de su utilización no es tan crítico.

 

En X.25, Frame Relay y ATM existe el concepto de circuito virtual (VC), que puede ser de dos tipos: conmutado o SVC (Switched Virtual Circuit) y permanente o PVC (Permanent Virtual Circuit). El conmutado se establece y termina a petición del usuario, mientras que el permanente tiene que ser definido por el proveedor del servicio, mediante configuración en los conmutadores a los que se conectan los equipos implicados, normalmente mediante modificación contractual con el cliente. En cierto modo podemos considerar los PVCs como 'líneas dedicadas virtuales' mientras que los SVCs son como conexiones RTC 'virtuales'.

 

1.5.3.1       X.25

 

X.25 fue el primer protocolo estándar de red de datos pública. Se definió por primera vez en 1976 por el CCITT (Comité Consultatif International Télégraphique and Téléphonique). Aunque el protocolo ha sido revisado múltiples veces (la última en 1993) ya se ha quedado algo anticuado y no es en la actualidad un servicio interesante en general, debido a su baja eficiencia y velocidad; normalmente no supera los 64 Kb/s, aunque se pueden contratar conexiones de hasta 2.048 Kb/s. A pesar de estas desventajas conviene conocer los aspectos básicos de X.25 pues aun existe una gran cantidad de usuarios de este tipo de redes. Además, en el protocolo X.25 se definieron por primera vez muchos de los conceptos en que se basa Frame Relay y ATM, que podemos considerar en cierto sentido como el X.25 versión 2 y versión 3, respectivamente. El conjunto de estándares que definen X.25 ha sido adoptado como parte del modelo OSI para los tres primeros niveles.

 

X.25 es un servicio fiable orientado a conexión; los paquetes llegan en el mismo orden con que han salido. Una vez establecido un circuito entre dos NSAPs la información se transfiere en paquetes que pueden ser de hasta 128 bytes (aunque en muchas redes se permiten tamaños de hasta 4 KBytes). En la red los paquetes son transferidos de cada conmutador al siguiente por la técnica de almacenamiento y reenvío y solo son borrados cuando se recibe la notificación de recepción; es necesario que se produzca una confirmación de la correcta recepción del paquete en cada salto que éste realiza en la red. Un mismo NSAP puede tener establecidos varios VCs (PVCs y/o SVCs) hacia el mismo o diferentes destinos.

 

A nivel físico se definen en X.25 dos interfaces, la X.21 cuando se usa señalización digital (cosa poco habitual) y la X.21bis (un subconjunto de la EIA-232D/V.24) cuando es analógica.

 

A nivel de enlace se utiliza un protocolo llamado LAP-B (Link Access Procedure-Balanced) que es una versión modificada del estándar ISO HDLC (High-level Data Link Control), que veremos en detalle al estudiar la capa de enlace.

 

El protocolo utilizado a nivel de red se conoce como X.25 PLP (Packet Layer Protocol). En este nivel se realizan todas las funciones de control de flujo, confirmación y direccionamiento. Cada NSAP (Network Services Access Point) en una red X.25 viene representado por una interfaz de un conmutador X.25, y tiene una dirección única. Las direcciones son numéricas y típicamente pueden tener entre nueve y quince dígitos. Las redes X.25 públicas de muchos países están interconectadas, como ocurre con las redes telefónicas. Para facilitar su direccionamiento la CCITT ha establecido un sistema jerárquico análogo al sistema telefónico en la recomendación X.121; así es posible por ejemplo llamar desde Iberpac (la red X.25 pública española) a una dirección de Transpac (la red pública X.25 francesa), sin más que añadir el prefijo correspondiente a dicha red en la dirección de destino.

 

Los ordenadores que se conectan a un conmutador X.25 necesitan tener la capacidad suficiente para procesar los complejos protocolos X.25. Cuando se definió el estándar X.25 los ordenadores personales eran caros y poco potentes; muchos usuarios que tenían necesidad de conectarse a redes X.25 no disponían de un ordenador adecuado. Para estos casos se diseñó un equipo capaz de conectar un terminal asíncrono, que trabaja en modo carácter (es decir, un paquete por carácter) a una red X.25. A dicho equipo se le denominó PAD (Packet Assembler Disassembler) ya que se ocupaba de ensamblar y desensamblar los paquetes X.25 que recibía. A través de un PAD un usuario de un PC, o incluso de un terminal 'tonto', podía conectarse a un host en una red X.25 y trabajar como un terminal remoto de aquel. La CCITT publicó tres documentos para especificar todo lo relacionado con el funcionamiento de un PAD: el X.3 describe las funciones propias del PAD, el X.28 define el protocolo de comunicación entre el PAD y el terminal asíncrono, y el X.29 define el protocolo entre el PAD y la red X.25. El uso conjunto de estos tres protocolos permite iniciar una sesión interactiva desde un terminal conectado a un PAD con un ordenador remoto, por lo que se le conoce como el logon remoto XXX. Cuando un usuario en un ordenador conectado a X.25 desea establecer una conexión como terminal remoto de otro ordenador a través de una red X.25 lo hace mediante un programa en su ordenador que emula el comportamiento de un PAD (PAD Emulation). El logon remoto XXX ofrece en redes X.25 un servicio equivalente al de Telnet en TCP/IP. Para el caso de usuarios que no dispongan de un PAD propio muchas compañías telefónicas ponen a su disposición un servicio de acceso a PADs por RTC (normalmente RTB). Este servicio se denomina normalmente X.28, por ser este estándar el que define el protocolo de comunicaciones entre el terminal de usuario y el PAD.

 

El rendimiento que se obtiene de un VC X.25 depende de muchos factores: velocidad de los accesos físicos implicados, número de VC simultáneos, tráfico en cada uno de ellos, carga de la red, infraestructura, etc.

 

En España Telefónica inició un servicio de red pública de conmutación de paquetes en 1971 con la red RSAN, basada en unos protocolos propios, no estándar. Esta red hoy desaparecida fue la segunda red de conmutación de paquetes del mundo (después de ARPAnet que empezó en 1969), y la primera establecida por un operador de telefonía. En 1984 Telefónica inició la red Iberpac, que ya obedecía a los estándares X.25. A través de Iberpac es posible acceder a más de 200 redes similares en todo el mundo. Las velocidades de acceso a Iberpac pueden ser de 2,4 a 2.048 Kb/s. Es posible contratar PVCs, aunque lo normal es utilizar SVCs. La tarificación se hace por tres conceptos: en primer lugar una cuota fija mensual según la velocidad de la línea de acceso, en segundo por el tiempo que dura cada llamada (o lo que es lo mismo, el tiempo que esta establecido cada SVC), y en tercer lugar por el número de paquetes transferidos por llamada. Para los dos últimos conceptos existen tres ámbitos de tarificación: nacional, europeo e internacional (en X.25 cuesta lo mismo transferir datos entre dos oficinas vecinas que entre Valencia y La Coruña). Telefónica dispone también de un servicio de acceso X.28 a su red Iberpac, conocido como Datex28.

 

Los protocolos X.25 se diseñaron pensando en los medios de transmisión de los años setenta, líneas de baja velocidad con tasa de errores elevada. El objetivo era aprovechar lo mejor posible las lentas líneas de transmisión existentes, aun a costa de hacer un protocolo de proceso pesado. Por si esto fuera poco, las redes X.25 casi siempre se utilizan para encapsular tráfico correspondiente a otros protocolos, por ejemplo TCP/IP, SNA o DECNET (podríamos decir que los paquetes de estos protocolos viajan 'disfrazados' en paquetes X.25); cuando se encapsula un protocolo como TCP/IP en X.25 se realizan de forma redundante las tareas de la capa de red, con lo que el resultado es aún mas ineficiente. Para resolver este tipo de problemas a partir de 1990 se empezaron a crear redes basadas en Frame Relay.

 

1.5.3.2       Frame Relay

 

Frame Relay (que podríamos traducir como retransmisión de tramas) nació a partir de los trabajos de estandarización del servicio RDSI, en un intento por crear una versión 'light' de X.25, que permitiera aprovechar las ventajas de los circuitos virtuales pero sin la pérdida de eficiencia que suponían los protocolos excesivamente 'desconfiados' de X.25. En X.25 la capa de enlace y la capa de red eran sumamente complejas; en cambio en Frame Relay ambas se intentaron reducir a su mínima expresión, dejando en manos de los equipos finales toda la labor de acuse de recibo, retransmisión de tramas erróneas y control de flujo; de esta forma Frame Relay se convertía en el complemento perfecto a otros protocolos, tales como TCP/IP. En muchos casos se considera que Frame Relay no es un protocolo a nivel de red sino a nivel de enlace (de ahí su nombre), y aun visto como nivel de enlace resulta bastante ligero.

 

El servicio que suministra Frame Relay consiste básicamente en identificar el principio y final de cada trama, y detectar errores de transmisión. Si se recibe una trama errónea simplemente se descarta, confiando en que el protocolo de nivel superior de los equipos finales averiguará por sí mismo que se ha perdido una trama y decidirá si quiere recuperarla o si por el contrario prefiere ignorarla. A diferencia de X.25, Frame Relay no tiene control de flujo ni genera acuse de recibo de los paquetes (estas tareas se dejan al nivel de transporte o de aplicación en los equipos finales). El tamaño máximo de los paquetes varía según las implementaciones entre 1 KB y 8 KB. La velocidad de acceso a la red típicamente esta entre 64 y 2.048 Kb/s, aunque también se ha estandarizado la velocidad de 34 Mb/s.

 

Una novedad importante de Frame Relay estriba en que se define un ancho de banda 'asegurado' para cada circuito virtual mediante un parámetro conocido como CIR (Committed Information Rate). Un segundo parámetro, conocido como EIR (Excess Information Rate) define el margen de tolerancia que se da al usuario, es decir, cuanto se le va a dejar 'pasarse' del CIR contratado. Por ejemplo, supongamos que un ordenador se conecta a una red Frame Relay mediante una línea de acceso a la red de 1.984 Kb/s, y tiene dos circuitos permanentes (PVCs) establecidos con otros dos ordenadores, cada uno de ellos con un CIR de 256 Kb/s y un EIR de 256 Kb/s; en este caso cada circuito tendrá asegurado un ancho de banda de 256 Kb/s como mínimo, y si la red no está saturada podrá llegar a 512 Kb/s; si un circuito intenta utilizar mas de 512 Kb/s el conmutador Frame Relay empezará a descartar tramas. Obsérvese que en este caso la línea de acceso nunca llegaría a saturarse, ya que como mucho podrían enviarse 512 Kb/s por cada circuito. La especificación del CIR para un circuito virtual se hace de forma independiente para cada sentido de la transmisión, y puede hacerse asimétrica, es decir con un valor distinto del CIR para cada sentido.

 

Cuando un usuario hace uso del EIR (es decir, genera un tráfico superior al CIR contratado en un circuito virtual) el conmutador Frame Relay pone a 1 en las tramas excedentes un bit especial denominado DE (Discard Elegibility). Si se produce congestión en algún punto de la red el conmutador en apuros descartará en primera instancia las tramas con el bit DE marcado, intentando resolver así el problema. Este mecanismo permite a un usuario aprovechar la capacidad sobrante en la red en horas valle sin perjudicar la calidad de servicio a otros usuarios en horas punta, ya que entonces se verá limitado a su CIR. En realidad el CIR tampoco está garantizado, ya que si la congestión no se resuelve descartando las tramas DE el conmutador empezará a descartar tramas normales (no marcadas como DE) que pertenecen a usuarios que no han superado su CIR. Afortunadamente las redes Frame Relay se suelen dimensionar de forma que el CIR de cada usuario esté prácticamente garantizado en todo momento. En cierto modo podemos imaginar el bit DE como equivalente a la 'reserva de asiento' en un billete de tren (el bit a 0 significaría en este caso tener hecha la reserva).

 

Una red Frame Relay podría utilizarse en vez de líneas dedicadas para interconectar conmutadores X.25; a la inversa (usar una red X.25 para unir entre sí conmutadores Frame Relay) sería mucho más difícil ya que al ser X.25 una red más lenta los retardos introducidos serían apreciados por los usuarios de Frame Relay.

 

En ocasiones se utilizan redes Frame Relay para transmitir voz digitalizada; esto no es posible con X.25 debido a la lentitud del protocolo, que introduciría unos retardos excesivos; el envío de voz por una red tiene unos requerimientos especialmente severos en cuanto a retardos para que la transmisión se efectúe correctamente.

 

La red pública Frame Relay de Telefónica se denomina Red Uno, y esta operativa desde 1992. Aunque Telefónica anunció la disponibilidad de SVCs en Frame Relay para 1997, parece que estos aun no están disponibles y el único servicio contratable es el de PVCs. La tarificación se realiza por dos conceptos: el primero es una cuota fija mensual en función de la velocidad de acceso a la red; el segundo es una cuota fija al mes por cada circuito según el valor de CIR que se tenga contratado; en ambos casos la tarifa depende de la distancia. El EIR no se especifica en el contrato, y por tanto no se paga, pero tampoco se compromete su valor por parte de Telefónica. La velocidad del acceso físico puede tener valores comprendidos entre 64 y 1.984 Kb/s. El CIR puede ser de 0 a 1.984 Kb/s. Al no existir circuitos conmutados la Red Uno no es una red abierta como lo son Iberpac o la RTC. Es posible la conexión internacional con muchas otras redes Frame Relay gracias a acuerdos suscritos con diversos operadores.

 

1.5.3.3       ATM y B-ISDN

 

Casi todos los servicios de comunicación que hemos visto hasta ahora fueron diseñados para la transmisión de voz o datos, pero no ambos. La RTB y la red GSM, pensadas para la voz, pueden transmitir datos, pero no están diseñadas para ello y sólo pueden hacerlo a muy bajas velocidades. Las líneas dedicadas y redes Frame Relay, pensadas para datos, pueden transmitir voz si se utilizan los equipos apropiados y se respetan ciertas restricciones.

 

El único servicio de los que hemos visto hasta ahora que se diseñó pensando en voz y datos es la RDSI (de ahí el nombre de Red Digital de Servicios Integrados). Pero la RDSI tiene dos inconvenientes importantes:

 

Al ser una red de conmutación de circuitos reales la reserva del ancho de banda se realiza durante todo el tiempo que está establecida la comunicación, independientemente de que se estén transfiriendo datos o no (o en el caso de transmitir voz independientemente de que se esté hablando o se esté callado).

 

El estándar RDSI se empezó a definir en 1984. En aquel entonces las líneas dedicadas eran de 9.6 Kb/s en el mejor de los casos y hablar de enlaces a 64 Kb/s parecía algo realmente avanzado; sin embargo el proceso de estandarización tardó mas de lo previsto (cosa que ocurre a menudo) y cuando aparecieron los primeros servicios RDSI diez años más tarde la red 'avanzada' resultaba interesante sólo en entornos domésticos y de pequeñas oficinas; resultando claramente insuficiente para las nuevas aplicaciones.

 

Una de esas nuevas aplicaciones era el vídeo en movimiento (videoconferencia y vídeo bajo demanda) que tiene unos requerimientos distintos a la voz y los datos. De una forma muy concisa resumimos en la siguiente tabla las características esenciales de cada tipo de tráfico:

 

 

Tipo de información

Capacidad

Pérdida tolerable

Retardo

Fluctuación Retardo

Datos

Variable

Muy baja

Alto

Alto

Audio en tiempo real unidireccional (monólogo)

Baja

Baja

Bajo

Muy baja

Audio en tiempo real bidireccional (diálogo)

Baja

Baja

Muy bajo

Muy baja

Vídeo en tiempo real unidireccional

Alta

Media

Bajo

Baja

Vídeo en tiempo real bidireccional (videoconferencia)

Alta

Media

Muy bajo

Baja

 

Tabla 1.3.- Necesidades de los diversos tipos de tráfico

 

 

Cuando una red está preparada para transmitir tanto audio y vídeo como datos informáticos decimos que es una red multimedia. Generalmente el tráfico multimedia tiene unas necesidades muy variables de ancho de banda, se dice que es un tráfico a ráfagas ('bursty traffic').

 

Cuando se tiene tráfico a ráfagas resulta especialmente útil disponer de una red de conmutación de paquetes con circuitos virtuales, ya que de ese modo unos usuarios pueden aprovechar en un determinado instante el ancho de banda sobrante de otros. Sin embargo las redes de este tipo que hemos visto hasta ahora (X.25 y Frame Relay) no son apropiadas para tráfico multimedia porque el retardo y la fluctuación de éste (también llamada ‘jitter’) son generalmente excesivos (especialmente en X.25) y además resultan impredecibles cuando la red está cargada.

 

Las compañías telefónicas vienen trabajando desde hace bastante tiempo en el diseño de una red adecuada al tráfico multimedia que permita aprovechar las ventajas de la conmutación de paquetes, para así utilizar de forma más eficiente las infraestructuras y ofrecer servicios nuevos, tales como la videoconferencia o el vídeo bajo demanda. La tecnología que permite todo esto se denomina ATM (Asynchronous Transfer Mode) y sus orígenes se remontan nada menos que a 1968, cuando se concibió en los laboratorios Bell el primer sistema de transmisión de celdas. En esencia lo que se intenta con esta nueva tecnología es integrar todos los servicios (audio, vídeo y datos) en una única red digital, es decir lo mismo que pretendía la RDSI más el vídeo (aunque como hemos visto RDSI llegó demasiado tarde). Por este motivo ATM también se denomina a veces RDSI de banda ancha, RDSI-BA o B-ISDN (Broadband-ISDN). Por contraste a la 'antigua' RDSI se la denomina en ocasiones RDSI de banda estrecha; RDSI-BE o N-ISDN (Narrowband-ISDN).

 

En 1986 la CCITT definió el concepto de RDSI-BA y eligió ATM como la tecnología sobre la que se basarían los futuros estándares. En aquel entonces ATM interesaba exclusivamente a las compañías telefónicas. Gradualmente los fabricantes de ordenadores se fueron percatando de las posibilidades de ATM y en 1991 decidieron crear el ATM forum, una organización que produciría estándares con un dinamismo mayor que la CCITT. En el ATM forum participan compañías telefónicas y fabricantes de ordenadores de todo el mundo, y es actualmente allí donde se decide fundamentalmente la evolución de ATM; la mayoría de los estándares aprobados por el ATM Forum son refrendados posteriormente por la CCITT. El primer conmutador ATM comercial apareció precisamente en 1991.

 

ATM es en parte una evolución de Frame Relay. La principal diferencia es que los ‘paquetes’ ATM tienen una longitud fija de 53 bytes (5 de cabecera y 48 de datos) frente al tamaño variable y mucho mayor de las tramas Frame Relay. Debido a su tamaño pequeño y constante los paquetes ATM se denominan celdas, y por esto en ocasiones a ATM se le denomina cell relay (retransmisión de celdas). Manejar celdas de un tamaño tan reducido tiene la ventaja de que permite responder con mucha rapidez a tráfico de alta prioridad que pueda llegar inesperadamente mientras se están transmitiendo otro menos urgente, algo muy importante en tráfico multimedia. El hecho de que todas las celdas sean del mismo tamaño simplifica el proceso, cuestión esencial cuando se quiere que dicho proceso sea lo más rápido posible. En el lado negativo está el overhead del 9,4% (5/53) debido a la información de cabecera presente en cada celda.

 

Al igual que en X.25 o Frame Relay, una red ATM se constituye mediante conmutadores interconectados por líneas dedicadas, y ordenadores o hosts conectados a dichos conmutadores. Mientras que en X.25 o Frame Relay se utilizan normalmente velocidades de 64 Kb/s a 2 Mb/s, en ATM las velocidades normales son de 155,52, 622,08 Mb/s o incluso superiores (aunque también s posible utilizar ATM a velocidades de 2 ó 34 Mb/s). Estos valores de 155,52 Mb/s en adelante son los que se utilizan en el sistema de transmisión SONET/SDH (Synchronous Optical NETwork/Synchronous Digital Hierarchy), desarrollado por la CCITT más o menos en la misma época que ATM. SONET/SDH es una tecnología de transporte de información sobre fibra óptica para redes WAN y es el que están utilizando las compañías telefónicas de todo el mundo actualmente en el desarrollo de sus infraestructuras de alta capacidad.

 

ATM da al usuario muchas mas facilidades que X.25 o Frame Relay para controlar las características de su circuito virtual: se puede fijar un ancho de banda máximo utilizable, un margen de tolerancia sobre dicho máximo, un ancho de banda mínimo garantizado, un ancho de banda asimétrico, un perfil horario de forma que el ancho de banda fluctúe con la hora del día de una forma preestablecida, etc. Además es posible definir prioridades y distintos tipos de tráfico según se prefiera fiabilidad o rapidez, tráfico constante o a ráfagas, etc.

 

El modelo de referencia ATM

 

ATM tiene su propio modelo de referencia, constituido por tres capas denominadas capa física, capa ATM y capa de adaptación ATM, también llamada capa AAL (ATM Adaptation Layer).

 

La capa física está formada por dos subcapas: la PMD (Physical Media Dependent) y la TC (Transmission Convergence). La subcapa PMD describe la interfaz física con el medio de transmisión, y equivale a la capa física del modelo OSI. La subcapa TC se ocupa de 'deshacer' las celdas en bits para pasarlos a la subcapa PMD en el envío, y de recibir los bits de la subcapa PMD para reconstruir las celdas en la recepción. Si consideramos la celda como equivalente a la trama del modelo OSI la subcapa TC desempeñaría la función de la capa de enlace, por lo que la estudiaremos en ese capítulo.

 

La capa ATM trata de la estructura de las celdas y su transporte. También realiza las tareas de señalización, es decir establece y termina los circuitos virtuales, y realiza el control de congestión. Sus funciones son una mezcla de la capa de enlace y la capa de red en el modelo OSI.

 

La capa de adaptación ATM (capa AAL) se divide también en dos subcapas; la inferior, denominada subcapa SAR (Segmentation And Reassembly) se ocupa de fragmentar el paquete que recibe desde ‘arriba’ (normalmente mayor de 48 bytes) en celdas para su envío, y de reensamblarlo en la recepción cuando se lo entrega la capa ATM. La subcapa CS (Convergence Sublayer) se ocupa de suministrar distintos tipos de servicio adecuados al tipo de tráfico (vídeo, audio, datos. etc.). Haciendo la equivalencia con el modelo OSI podemos decir que la capa AAL corresponde a la capa de transporte.

 

Obsérvese que en el modelo de referencia ATM no se habla de aplicaciones. En realidad el modelo contempla la existencia de capas por encima de la capa AAL, pero no se especifican sus funciones ni características. El modelo deja total libertad en el diseño de aplicaciones sobre ATM. Actualmente el principal uso de ATM es como medio de transporte para otros protocolos; hay muy pocas aplicaciones que hayan sido diseñadas para funcionar de manera nativa en ATM, es decir directamente sobre la capa AAL.

 

Futuro de ATM

 

Hace unos años nadie cuestionaba el liderazgo de la tecnología ATM cuando se trata de redes de alta capacidad. Hoy en día se estima que aproximadamente el 80% del tráfico de datos  nivel mundial atraviesa en algún punto una red ATM. Sin embargo las previsiones para ATM no son actualmente tan optimistas como lo eran hace unos años. Por un lado no ha sido capaz de imponerse como protocolo de red, la mayoría de las aplicaciones actualmente siguen funcionando sobre IP, incluso en el campo de aplicaciones multimedia en tiempo real que parecía ser el territorio ideal para ATM; por otro lado se plantean tecnologías competidoras, tales como Gigabit Ethernet en LAN y POS (Packet Over SONET) en WAN. Aunque sin duda ATM seguirá dando mucho que hablar durante bastantes años las cosas ya no apuntan a que se convierta en la ‘tecnología universal’ como parecía en 1996-1997.

 

En España Telefónica inició en 1996 dos servicios de red ATM denominados servicio Gigacom y  Servicio Cinco (Comunicaciones Integrales Corporativas). Estos servicios están orientados a clientes con grandes necesidades de transmisión de datos multimedia; solo se permite la constitución de PVCs; las velocidades de acceso van de 512 Kb/s a 155 Mb/s. Este servicio es una alternativa interesante a las líneas dedicadas de alta velocidad, ya que permite contratar servicios de acuerdo a horarios preestablecidos, por ejemplo un periódico que necesita 4 Mb/s de capacidad entre sus oficinas de Madrid y Barcelona todos os días de 1 a 2 de la madrugada para transmitir la edición del día siguiente.

 

1.6      ESTÁNDARES

 

En nuestra vida diaria estamos rodeados de estándares, incluso para las cosas más triviales como los pasos de rosca o el tamaño de las hojas de papel. En algunos casos el estándar hace la vida más cómoda (por ejemplo el formato A4 permite una manipulación cómoda de documentos), en otros es necesario para asegurar la interoperabilidad (roscar una tuerca en un tornillo, por ejemplo). Los estándares en materia de telecomunicaciones pertenecen al segundo tipo, es decir, son esenciales para asegurar la interoperabilidad entre diversos fabricantes, cosa esencial si se quieren hacer redes abiertas, es decir si no se quiere ser cautivo de un fabricante en particular. Los estándares pueden ser de ámbito regional, nacional o internacional; por ejemplo en Estados Unidos el formato habitual de papel no es el A4 sino el tamaño carta o letter, que es un poco mas pequeño y constituye un estándar nacional. Las telecomunicaciones son probablemente la primera actividad humana en la que se reconoció la necesidad de definir estándares internacionales; ya en 1865 representantes de muchos países europeos se reunieron para crear una organización que se ocupara de estandarizar las comunicaciones por telégrafo, acordando cosas tales como el código a utilizar; dicha organización fue la predecesora de la actual ITU (International Telecommunication Union).

 

Conviene destacar que la pertenencia de un país a una determinada organización no asegura su adhesión a los estándares emanados de la misma. Por ejemplo, el tamaño de papel A4 es parte de un estándar de la ISO (International Organization for Standardization) que es seguido por la mayoría de los países del mundo pero no por Estados Unidos, donde como ya hemos comentado se prefiere el tamaño carta, a pesar de que Estados Unidos también es miembro de la ISO.

 

Generalmente se suele distinguir dos tipos de estándares: de facto y de jure. Los estándares de facto (del latín 'del hecho') ocurren cuando un determinado producto o pauta de comportamiento se extiende en una comunidad determinada sin una planificación previa, hasta el punto de que ese producto o comportamiento se considera 'normal' dentro de esa comunidad. Los estándares de facto ocurren de forma natural y progresiva, sin una planificación previa ni un proceso formal que los refrende. Por ejemplo en informática personal podemos decir que el PC IBM o compatible (generalmente con software Microsoft) es un estándar de facto; en entornos universitarios de docencia e investigación en informática el uso de sistemas operativos UNIX es mayoritario, por lo que podemos decir que es un estándar de facto. Los estándares de facto también se llaman a veces 'estándares de la industria'.

 

Los estándares de jure (del latín 'por ley') son fruto de un acuerdo formal entre las partes implicadas, después de un proceso de discusión, consenso y a menudo votación. Se adoptan en el seno de una organización cuya principal misión es la elaboración o aprobación de estándares; si dicha organización tiene ámbito internacional el estándar definido es internacional. Existen dos tipos de organizaciones internacionales: las que podemos denominar 'oficiales' se crean por acuerdo entre los gobiernos de las naciones participantes; en este grupo se encuentran por ejemplo la ITU o la ISO. En otra categoría se encuentran las organizaciones que existen gracias al esfuerzo voluntario de sus miembros y que podemos denominar ‘extraoficiales’; en esta categoría están por ejemplo la Internet Society o el ATM forum.

 

En el mundo de las redes de ordenadores existen hoy en día como hemos visto dos conjuntos de protocolos estándar, el OSI y el TCP/IP, pero ambos son relativamente recientes. En los años setenta y ochenta en que no había protocolos estándar la forma más sencilla de constituir una red multifabricante era utilizar los protocolos de IBM: SNA o su predecesor el NJE, Network Job Entry; como los equipos IBM eran los más extendidos casi todos los fabricantes disponían de productos que implementaban estos protocolos en sus equipos; además, en muchos casos la mayoría de los ordenadores a conectar era IBM por lo que el software necesario era fácil de obtener o venía incluido con el sistema operativo. Podemos decir que en los años setenta y parte de los ochenta los protocolos SNA y NJE eran un ‘estándar de facto’.

 

Pasaremos ahora a describir con más detalle las principales organizaciones que tienen alguna relación con los estándares del campo de la telemática.

 

1.6.1    La ISO

 

Muchos países tienen organizaciones nacionales de estándares donde expertos de la industria y las universidades desarrollan estándares de todo tipo. Entre ellas se encuentran por ejemplo las que aparecen en la tabla 1.4.

 

 

País

Abreviatura

Nombre completo

Estados Unidos

ANSI

American National Standards Institute

Alemania

DIN

Deutsches Institut fuer Normung

Reino Unido

BSI

British Standards Institution

España

AENOR

Asociación Española de Normalización

Francia

AFNOR

Association Francaise de Normalisation

Italia

UNI

Ente Nazionale Italiano de Unificatione

Países Bajos

NNI

Nederlands Normalisatie-Instituut

Australia

SAA

Standards Australia

Nueva Zelanda

SANZ

Standards Association of New Zealand

Noruega

NSF

Norges Standardiseringsforbund

Dinamarca

DS

Dansk Standard

 

Tabla 1.4.- Organizaciones de estandarización/normalización de algunos países del mundo.

 

 

La ISO (International Organization for Standardization) es una organización voluntaria (es decir, no es fruto de tratados internacionales) creada en 1946 con sede en Ginebra, Suiza. Sus miembros son las organizaciones nacionales de estándares de los 89 países miembros. A menudo un estándar de uno de sus miembros es adoptado por ISO como estándar internacional; esto ocurre especialmente con los miembros más importantes, ANSI, DIN, BSI y AFNOR.

 

ISO emite estándares sobre todo tipo de asuntos, como por ejemplo: el sistema métrico de unidades de medida, tamaños de papel, sobres de oficina, tornillos y tuercas, reglas para dibujo técnico, conectores eléctricos, regulaciones de seguridad, componentes de bicicleta, números ISBN (International Standard Book Number), lenguajes de programación, protocolos de comunicaciones, etc. Hasta la fecha se han publicado unos 10.000 estándares ISO que afectan a prácticamente cualquier actividad de la vida moderna.

 

Para realizar esta ingente labor ISO se organiza en cerca de 200 comités técnicos denominados TC (Technical Committee) que se numeran en orden ascendente según su fecha de creación. El que nos interesa a nosotros es el TC97 que trata de ordenadores y proceso de la información. Cada comité tiene subcomités (SCs) que a su vez se dividen en grupos de trabajo o WGs (Working Groups).

 

El proceso de creación de un estándar ISO es como sigue. Uno de sus miembros (una organización nacional de estándares) propone la creación de un estándar internacional en un área concreta. Entonces ISO constituye un grupo de trabajo que produce un primer documento denominado borrador del comité o CD (Committee Draft). El CD se distribuye a todos los miembros de ISO, que disponen de un plazo de seis meses para exponer críticas. El documento, modificado de acuerdo con las críticas recibidas, se somete entonces a votación y si se aprueba por mayoría se convierte en un estándar internacional borrador o DIS (Draft International Standard) que se difunde para recibir comentarios, se modifica y se vota nuevamente. En base a los resultados de esta votación se prepara, aprueba y publica el texto final del estándar internacional o IS (International Standard). En áreas muy polémicas un CD o un DIS han de superar varias versiones antes de conseguir un número de votos suficiente, y el proceso entero puede llevar años.

 

ISO ha generado multitud de estándares en telemática y en tecnologías de la información en general, siendo OSI su ejemplo más significativo. Además a menudo ISO adopta estándares producidos por sus organizaciones miembros o por otras organizaciones relacionadas; por ejemplo ISO adopta sistemáticamente los estándares 802 del IEEE sobre redes locales.

 

1.6.2    La ITU-T

 

La ITU (International Telecommunication Union) fue creada en 1934, y con la creación de la ONU se vinculó a ésta en 1947. La ITU tiene tres sectores de los cuales solo nos interesa el conocido como ITU-T que se dedica a la estandarización de las telecomunicaciones. Desde 1956 a 1993 la ITU-T se conoció con el nombre CCITT, acrónimo del nombre francés Comité Consultatif International Télégraphique et Téléphonique. En 1993 el CCITT fue reorganizada y se le cambió el nombre a ITU-T; estrictamente hablando el cambio de nombre tiene efectos retroactivos, es decir, los documentos vigentes, aun cuando fueran producidos antes de 1993, son hoy documentos de la ITU-T y no del CCITT.

 

Los miembros de la ITU-T son de cinco clases:

 

 

Entre los miembros hay unos 200 representantes de países, unos cien operadores privados y varios cientos de miembros de las otras clases. Sólo los representantes de los países tienen derecho a voto, pero todos los miembros pueden participar en el trabajo.

 

Para desarrollar su trabajo la ITU-T se organiza en Grupos de Estudio, que pueden estar formados por hasta 400 personas. Los Grupos de Estudio se dividen en Equipos de Trabajo (Working Parties), que a su vez se dividen en Equipos de Expertos (Expert Teams).

 

Las tareas de la ITU-T comprenden la realización de recomendaciones sobre interfaces de teléfono, telégrafo y comunicaciones de datos. A menudo estas recomendaciones se convierten en estándares reconocidos internacionalmente, por ejemplo la norma ITU-T V.24 (también conocida como EIA RS-232) especifica la posición y el significado de las señales en el conocido conector de 25 contactos utilizado en muchas comunicaciones asíncronas.

 

La ITU-T denomina a sus estándares 'recomendaciones'; con esto se quiere indicar que los países tienen libertad de seguirlas o no. Ignorarlas puede suponer quedar aislado del resto del mundo, por lo que en la práctica a menudo las recomendaciones se traducen en obligaciones.

 

Todos los estándares de la ITU-T se nombran mediante una letra seguida de un punto seguido a su vez de números. La letra identifica la serie, por ejemplo todo lo relativo a módems se encuentra en la serie V (V.32, V.42, ...); la serie X trata sobre redes de datos y OSI (X.25, X.400,...), las series I y Q definen la RDSI, la serie H comprende todo lo relativo a codificación digital de vídeo y videoconferencia (H.263, H.323, etc.).

 

1.6.3    Foros industriales

 

El proceso de elaboración de estándares de la ITU-T y la ISO siempre se ha caracterizado por una gran lentitud, debido quizá a la necesidad de llegar a un consenso entre muchos participantes y a procedimientos excesivamente complejos y burocratizados. Esa lentitud fue uno de los factores que influyó en el rechazo de los protocolos OSI, por ejemplo. En el caso de RDSI la ITU-T empezó a elaborar el estándar en 1972, y lo finalizó en 1984; los servicios comerciales aparecieron hacia 1994, 22 años después de iniciado el proceso.

 

Los fabricantes de equipos, que perdían gran cantidad de mercado por culpa de estos retrasos, no estaban dispuestos a seguir funcionando de la misma forma. Por ello a principios de los noventa surgió un nuevo mecanismo para acelerar la creación de estándares, que fue la creación de foros industriales. La idea era simple: un conjunto de fabricantes, usuarios y expertos interesados en desarrollar una tecnología concreta forman un consorcio que se ocupa de fijar los estándares necesarios para garantizar la interoperabilidad entre diversos fabricantes; los estándares se hacen públicos de forma que cualquier fabricante que lo desee puede desarrollar productos conformes con dicho estándar.

 

Los foros no pretenden competir con las organizaciones internacionales de estándares, sino cooperar con ellas y ayudarlas a acelerar su proceso, especialmente en la parte más difícil, la que corresponde a la traducción de los documentos en implementaciones que funcionen en la práctica. Generalmente los foros trabajan en los mismos estándares intentando aclarar ambigüedades y definir subconjuntos de funciones que permitan hacer una implementación sencilla en un plazo de tiempo más corto y comprobar la viabilidad y la interoperabilidad entre diversos fabricantes; así los organismos de estandarización pueden disponer de prototipos reales del estándar que se está definiendo. En cierto modo es como traer a la ISO e ITU-T el estilo de funcionamiento de la IETF.

 

Otra característica de los foros es que se establecen fechas límite para la producción de estándares, cosa que no hacen los organismos oficiales; de esta manera los fabricantes pueden planificar la comercialización de sus productos de antemano, ya que saben para qué fecha estarán fijados los estándares necesarios.

 

Como ejemplo de forums industriales que existen o han existido podemos mencionar el Forum Frame Relay, el Forum ATM, el Forum ADSL (Asymmetric Digital Subscriber Loop), el Forum IPv6, la alianza Gigabit Ethernet, etc. El forum ATM, creado en 1991 por Northern Telecom, Sprint, Sun Microsystems, y Digital Equipment Corporation (DEC), cuenta en la actualidad con más de 500 miembros

 

1.6.4    Otras organizaciones

 

 

La Internet Society, aunque no es una organización de estándares ‘oficial’, es la que se ocupa de aprobar todo lo relacionado con los estándares Internet. Debido a su importancia y estrecha relación con la propia Internet aplazaremos el estudio de dicha organización a la descripción de la evolución de Internet que abordaremos en el capítulo 9.

 

El IEEE (Institute of Electrical and Electronics Engineers) es una asociación profesional de ámbito internacional. Aparte de otras muchas tareas el IEEE (también llamado IE cubo) tiene un grupo que desarrolla estándares en el área de ingeniería eléctrica e informática. Entre ellos se encuentran por ejemplo los estándares 802 que cubren casi todo lo relacionado con redes locales. Los estándares 802 son adoptados regularmente por ISO con el número 8802.

 

El ANSI es como ya hemos dicho la organización de estándares de los Estados Unidos. Debido a que muchos fabricantes de equipos de comunicaciones diseñan o desarrollan sus productos en Estados Unidos muchos estándares ANSI son de interés también en otros países. Además muchos estándares ANSI son adoptados posteriormente por ISO como estándares internacionales.

 

El NIST (National Institute of Standards and Technology) es una agencia del Departamento de Comercio de los Estados Unidos., antes conocido como el NBS (National Bureau of Standards). Define estándares para la administración de los Estados Unidos.

 

El ETSI (European Telecommunications Standards Institute) es una organización internacional dedicada principalmente a la estandarización de las telecomunicaciones europeas. Es miembro de la ITU-T. Entre sus misiones está elaborar especificaciones detalladas de los estándares internacionales adaptadas a la situación de Europa en los aspectos históricos, técnicos y regulatorios.

 

La  EIA (Electrical Industries Association) es una organización internacional que agrupa a la industria informática y que también participa en aspectos de la elaboración de estándares.

 

La ECMA (European Computer Manufacturers Association), creada en 1961, es un foro de ámbito europeo donde expertos en proceso de datos se ponen de acuerdo y elevan propuestas para estandarización a ISO, ITU-T y otras organizaciones.

 

La CEPT (Conference European of Post and Telecommunications) es una organización de las PTTs europeas que participa en la implantación de estándares de telecomunicaciones en Europa. Sus documentos se denominan Norme Europeene de Telecommunication (NET). La CEPT está avalada por la Comunidad Europea.

 

1.7      EJERCICIOS

 

 

1.       Indique si es verdadera o falsa cada una de las siguientes afirmaciones:

 

a)       A diferencia de lo ocurrido con los protocolos OSI en TCP/IP el modelo se definió después de especificar los protocolos

 

b)       Los estándares Internet son aprobados por la ISO.

 

c)       Todas las tecnologías de red local son de tipo broadcast.

 

d)       OSI fue la primera arquitectura de redes que se describió mediante un modelo de capas.

 

e)       Cuando se utilizan SVCs en Frame Relay la red es no orientada a conexión.

 

f)        El desarrollo y estandarización de los protocolos TCP/IP se efectúa al margen de las organizaciones tradicionales de estándares, como ISO, ITU o el IEEE.

 

 

2.       Diga en cuales de las siguientes situaciones se utilizan las telecomunicaciones y en cuales la telemática:

 

a)       Dos usuarios mantienen una conversación a través de dos teléfonos conectados a la RDSI (Red Digital de Servicios Integrados).

 

b)       Otros dos usuarios hablan, pero utilizan dos PCs (con tarjeta de sonido); los PCs están conectados a la Internet mediante líneas analógicas y módems de 28.8 Kb/s.

 

c)       Un usuario envía a otro por mensajero un disquete que contiene un fichero.

 

d)       Un usuario envía un telegrama utilizando el código Morse.

 

e)       Un usuario envía un documento desde un ordenador, conectado mediante un módem y un programa emulador de facsímil; en el destino el documento es recibido por otro ordenador conectado de la misma forma.

 

f)        Dos usuarios mantienen una videoconferencia mediante PCs conectados por RDSI en los que se ha instalado el hardware y software adecuado.

 

 

3.       Explique las modificaciones efectuadas en el modelo de capas OSI para adaptarlo a los protocolos TCP/IP

 

 

4.       Una empresa ubicada en Valencia dispone de una serie de sucursales, todas en área metropolitana, que desea unir a 128 Kb/s con su oficina central. Tanto la oficina central como las sucursales disponen de routers que pueden conectarse bien a líneas dedicadas de 128 Kb/s o a enlaces básicos RDSI. El costo mensual de una línea dedicada de 128 Kb/s en pesetas es de:

 

64458 + 4576*d                 para d = 0 a 4

82762 + 4895*(d-4)           para d = 4 a 20

 

donde d es la distancia en kilómetros.

 

Como alternativa se considera utilizar en cada caso una pareja de accesos básicos RDSI. En este caso el costo es de:

 

5843 pesetas al mes por cada acceso básico

5,7 pesetas por establecer la llamada

5,7 pesetas por cada tres minutos o fracción

 

El horario de las sucursales es de 8 a 20 horas de lunes a viernes, y de 8 a 14 horas los sábados. El calendario laboral de la empresa establece 12 festivos al año (el comité de empresa se asegura de que los festivos siempre ocurran entre lunes y viernes).

 

Se supone que el tráfico de cada sucursal será lo bastante elevado como para requerir tener los dos canales B abiertos de forma permanente mientras están abiertas las sucursales; fuera de esas horas el router está apagado.

 

Dado que el costo de la línea dedicada depende de la distancia y el de la conexión RDSI es independiente de ésta (siempre y cuando nos encontremos en ámbito metropolitano) se sospecha que la línea dedicada será más barata hasta una cierta distancia y que a partir de ésta será más barato utilizar RDSI. Confirme o desmienta esta suposición, y en caso afirmativo calcule cual será la distancia a partir de la cual será más barato utilizar RDSI.

 

 

5.       En 1999 Telefónica puso en marcha la opción de tarifa plana dentro del servicio RDSI con el nombre comercial de servicio Novacom Multiplan, con dos modalidades: conmutada y permanente. En la modalidad conmutada el usuario notifica a Telefónica un número de teléfono RDSI con el cual tiene tarifa plana, es decir no se le factura el tiempo de conexión. El usuario puede además llamar a cualquier otro número de teléfono de la red, facturándosele en este caso el tiempo de conexión de acuerdo con las tarifas normales. En la modalidad permanente el usuario notifica a Telefónica el número de teléfono con el que desea establecer la comunicación y el circuito se configura de forma que la comunicación esté establecida de forma permanente, sin necesidad de establecer la llamada; al estar el usuario siempre conectado con el número de teléfono correspondiente no es posible utilizar ese canal para comunicar con otros números de teléfono. Tanto la modalidad conmutada como la permanente se aplican a cada canal B que el usuario solicite, independientemente de que se trate de un acceso básico o primario.

 

Las cuotas mensuales (en pesetas) del servicio Novacom son como sigue:

 

Ámbito

Permanente

Conmutado

Metropolitano

20.000

16.000

Provincial

31.000

25.000

Nacional

108.000

95.000

 

El ámbito queda determinado por los dos números de teléfono que se interconectan.

 

Calcule en el problema anterior para que casos (es decir, para que rango de distancias)  puede ser el servicio Novacom conmutado o permanente una opción interesante frente a las dos posibilidades allí planteadas (línea punto a punto y acceso RDSI normal).


1.8      SOLUCIONES

 

 

S1.-

 

a)       Verdadera. Se especificaron los protocolos antes de definir el modelo.

 

b)       Falsa. Los estándares Internet son aprobados por el IAB (Internet Architecture Board) que pertenece al IAB (Internet Architecture Board).

 

c)       Falsa. Algunas, como por ejemplo HIPPI, se basan en enlaces punto a punto.

 

d)       Falsa. SNA (Systems Network Architecture) que se definió varios años antes también utilizaba el modelo de capas.

 

e)       Falsa. Si hay circuitos virtuales, independientemente de su tipo, la red siempre es orientada a conexión.

 

f)        Verdadera. El desarrollo y estandarización de los protocolos TCP/IP lo realiza el IAB (Internet Architecture Board), que pertenece a la Internet Society, y que tiene poco o nada que ver con la ISO, la ITU o el IEEE.

 

 

S2.-

 

a)       Telecomunicaciones. La transmisión digital de información ocurre en este caso sin que los usuarios sean conscientes de ello y sin que puedan obtener un beneficio directo.

 

b)       Telemática. Los usuarios disponen de un PC con todas sus posibilidades de programación; por ejemplo uno de ellos podría dejar un mensaje pregrabado cuyo contenido dependiera de la hora en la que el otro llama, etc.

 

c)       Ninguna de ambas. La Telemática requiere el envío de bits, y las Telecomunicaciones el envío de ondas (normalmente electromagnéticas). El envío de átomos no corresponde a ninguna de las dos.

 

d)       Telecomunicaciones. Aunque la información se transmite de forma digital (en este caso el codec es el telegrafista) el usuario no dispone de medios que le permitan explotar esta circunstancia.

 

e)       Telemática. El uso de ordenadores en vez de dispositivos facsímil permite por ejemplo que el documento sea enviado y/o recibido a un servidor de fax de una red.

 

f)        Telemática. El usuario dispondrá normalmente de herramientas que le permitirán integrar la videoconferencia con su PC, pudiendo por ejemplo mostrar al usuario remoto documentos o compartir aplicaciones instaladas en su PC.

 

 

S3.-

 

Las capas de sesión y presentación han sido suprimidas. Además las dos primeras capas (física y de enlace) se han fundido en una nueva denominada host-red.

 

 

 

S4.-

 

Cálculo RDSI, base anual:

 

Costo conexión un día normal (L-V):

 

5,7 * 60 * (20 - 8) / 3 + 5,7 = 1373,7 pesetas

 

Costo conexión un sábado:

 

                5,7 * 60 * (14 - 8) / 3 + 5,7 = 689,7 pesetas

 

Laborables L-V del año: 365 *5/7 = 260,7 - 12 = 248,7

 

Sábados del año: 365/7 = 52,1

 

Costo 1 canal B:

 

                248,7 * (1373,7) + 52,1 * (689,7) = 377572 pesetas/año

 

Dos canales B: 755144 pesetas/año              62929 pesetas/mes

 

Cuota fija: 5843 * 2 accesos básicos = 11686 pesetas

 

Total al mes (cuota fija + conexión): 74615 pesetas

 

Línea dedicada.

 

Probamos con la primera fórmula (menos de 4 Km):

 

74615 = 64458 + 4576 * n                              (n = 0 a 4, nº de Km)

 

n = (74615 - 64458) /4576 = 2,22 Km

 

Por encima de 2,22 Km es más rentable utilizar RDSI

 

 

S5.-

 

Dado que la opción Novacom permanente es más cara y no aporta ventajas nos concentraremos para la comparación en el caso de Novacom conmutado. Además se nos dice que todas las conexiones son en ámbito metropolitano, por lo que el costo de cada canal B será de 16.000 Pts/mes. A esto hay que sumar la cuota fija de los dos accesos RDSI, por lo que el costo mensual total de la conexión será de:

 

11686 + 16000 * 2 = 43686 pesetas

 

Resulta que el costo mínimo de una línea dedicada (distancia 0 Km) es de 64458 pesetas al mes, por lo que la solución Novacom conmutada es más rentable que la línea dedicada para todas las distancias.