Make your own free website on Tripod.com

Unidad VI

CAPA DE RED

La capa de red se ocupa de la obtención de paquetes procedentes de la fuente y de enrutarlos durante todo el camino hasta alcanzar su destino.

Para alcanzar su destino puede surgir la necesidad de hacer varios saltos en nodos intermedios a lo largo del recorrido. Esta función contrasta claramente con la de la capa de enlace, cuya meta más modesta, consiste sólo en mover las tramas desde un extremo del cable hasta el otro. Por lo tanto, la capa de red es la capa, más baja, que se ocupa de la transmisión de extremo a extremo.

Para que la capa de red pueda alcanzar sus objetivos, deber conocer la topología de la subred de comunicación y seleccionar trayectorias apropiadas a través de ella. También, deber tener cuidado, al seleccionar las rutas, de evitar la sobrecarga en algunas de las líneas de comunicación, mientras deja a otras inactivadas. Por último, cuando la fuente y el destino se encuentran en redes diferentes, depender de la capa de red ocuparse de esas diferencias y resolver los problemas que resulten de ellas. Los principales objetivos que deben considerar los protocolos al nivel de red son:

El servicio proporcionado a la capa de transporte, direccionamiento, Enrutamiento de paquetes a través de la subred, Calidad del servicio, tamaño máximo de paquete, Control de flujo y congestión, Informe de errores.


SERVICIOS DE LA CAPA DE RED:

· La capa de red proporciona servicios al nivel 4 o capa de transporte.
· En algunos casos, el nivel 3 opera en un equipo front-end o IMP y el nivel 4 en el host, por lo que los limites entre la capa de red y de transporte definen los limites entre la subred de comunicaciones y el host, significando que los servicios de la capa de red definen los servicios proporcionados por la subred.


ORGANIZACIÓN INTERNA DE LA CAPA DE RED

· No existe una especificación en el modelo OSI.
· Tiene que ver con aspectos de control de encaminamiento y de congestión, que dependen de la implementación específica de la subred.

Las filosofías básicas para la organización de la subred:

· Con conexión: circuito virtual.
· Sin conexión: datagramas.


MODALIDADES DE SERVICIO EN CONMUTACIÓN POR PAQUETES:

· Los servicios y facilidades ofrecidas por una red pública de transmisión de datos están especificadas en las recomendaciones X.1 y X.2 del CCITT (Comité Consultatif International por le Télégraphe et le téléfone).

· La administración de la red ofrece los servicios de transmisión de datos al público.

· Los principales servicios ofrecidos en redes públicas de transmisión de datos son: Comunicación por circuitos y por paquetes.

· En una red pública de conmutación por paquetes, existen básicamente dos modalidades de servicio:

· circuitos virtuales
· datagramas


CIRCUITOS VIRTUALES:

· El concepto de circuito virtual se refiere a una asociación bidireccional, a través de la red, entre dos ETD, circuito sobre el cual se realiza la transmisión de los paquetes.

· Al inicio, se requiere una fase de establecimiento de la conexión, denominado:
· "llamada virtual"

· Durante la llamada virtual los ETDs se preparan para el intercambio de paquetes y la red reserva los recursos necesarios para el circuito virtual.

· Los paquetes de datos contienen sólo el número del circuito virtual para identificar al destino.

· Si la red usa encaminamiento adaptativo, el concepto de circuito virtual garantiza la secuenciación de los paquetes, a través de un protocolo fin-a-fin (nodo origen/nodo destino).

· El concepto de CV permite a un ETD establecer caminos de comunicación concurrentes con varios otros ETDs, sobre un único canal físico de acceso a la red.

· El CV utiliza al enlace físico sólo durante la transmisión del paquete.

· Existen 2 tipos de CV:

· CVP: Circuito virtual permanente.
· CVT: Circuito virtual temporario.
· CVP: no requiere fase de establecimiento o llamada virtual por ser un circuito permanente (punto a punto) entre ETDs.
· CVT: Requiere de la llamada virtual.

· El protocolo para uso de circuitos virtuales está establecido en la recomendación X.25 del CCITT.
· (existe confirmación de mensajes recibidos, paquetes perdidos, etc.)


DATAGRAMAS :

· Es un paquete autosuficiente (análogo a un telegrama) el cual contiene información suficiente para ser transportado a destino sin necesidad de, previamente, establecer un circuito.

· No se provee confirmación de recepción por el destinatario, pero puede existir un aviso de no entrega por parte de la red.

· Algunas redes privadas trabajan en base a DATAGRAMAS, pero en redes públicas, donde existen cargos por paquetes transmitidos, no existe buena acogida para este tipo de servicios.

· Una alternativa al servicio de DATAGRAMA propuesto al CCITT, es la facilidad de selección rápida o Fast Select, la cual es aplicable en la llamada virtual ð CVT.

· Fast Select permite transmitir datos en el campo de datos del paquete de control que establece el circuito virtual. La respuesta confirma la recepción y termina el CV.


ALGORITMOS DE ENCAMINAMIENTO:

El algoritmo de enrutamiento es aquella parte del software de la capa de red encargada de decidir la línea de salida por la que transmitirá el paquete de entrada. Los paquetes de datos simplemente siguen la ruta previamente establecida.

Existen ciertas propiedades que resulta deseable tener en un algoritmo de encaminamiento:

· corrección
· simplicidad
· robustez
· estabilidad
· justicia
· optimalidad

Los algoritmos de enrutamiento pueden agruparse en dos clases principales: no adaptables y adaptables.

Los algoritmos no adaptables no basan sus decisiones de enrutamiento en mediciones o estimaciones de tráfico y la topología actuales.

Los algoritmos adaptables, en contraste, cambian sus decisiones de enrutamiento para reflejar los cambios en la topología, y generalmente también en tráfico.


PRINCIPIO DE OPTIMACIÓN:

Puede ser útil señalar que es posible hacer un postulado general sobre las rutas óptimas sin importar la topología o el tráfico de la red.

El principio de optimación, establece que, si el enrutador j está en la trayectoria optima de enrutador i al enrutador k, entonces la trayectoria optima de j a k también está en la misma ruta.

Como consecuencia directa del principio de optimalidad, puede ver que el grupo de trayectorias optimas de todas las de orígenes a un destino dado forma un árbol con raíz en el destino. Tal árbol se llama árbol de descenso.

Dado que un árbol de descenso ciertamente es un árbol, no contiene ciclos, por lo que cada paquete será entregado con un número de escalas finito y limitado.


ENRUTAMIENTO POR LA TRAYECTORIA MÁS CORTA:

La idea es armar un grafo de la subred, en el que cada nodo representa un enrutador y cada arco un grafo de línea de comunicación. Para escoger una ruta entre un par dado de enrutadores, el algoritmo simplemente encuentra en el grafo la trayectoria más corta entre ellos.

Una manera de medir la longitud de una trayectoria es por la cantidad de escalas.

En el caso más general, las etiquetas de los arcos se podrían calcular como una función de la distancia, ancho de banda, promedio de trafico, costo de comunicación, longitud promedio de la cola de espera, retardo medio, y algunos de otros factores.

Se conocen varios algoritmos que calculan el camino más corto entre dos nodos de un gráfo. Cada nodo se etiqueta con la distancia que tiene desde el nodo origen a lo largo de un camino conocido como el mejor. Inicialmente ningún camino es conocido, así que todos los nodos se etiquetan con infinito. A medida que el algoritmo avanza y los caminos se comienzan a conocer, las etiquetas pueden cambiar, reflejando mejores trayectorias. Una etiqueta puede ser tentativa o permanente; al inicio todas son tentativas. Cuando se descubre que una etiqueta representa el camino más corto posible, desde el origen hasta el nodo respectivo, la etiqueta se hace permanente y desde ese momento jamas se modifica.

Cada vez que reetiquetemos un nodo, también lo etiquetamos con el nodo desde el que se hizo la prueba, para poder reconstruir la trayectoria final.


INUNDACIÓN:

Otro algoritmo estático es la inundación, en la que cada paquete de entrada se envía por cada una de las líneas de salida, excepto aquella por la que llegó. La inundación evidentemente genera grandes cantidades de paquetes duplicado, de hecho, una cantidad infinita al menos que se tomen algunas medidas para limitar e proceso. Una de tales medidas es el contador de escalas contenido en la cabecera de cada paquete, el cual disminuye en cada escala, descartándose el paquete al llegar el contador a cero. Idealmente el contador debe inicializarse a la longitud de la trayectoria entre el origen y el destino.

Una variación de la inundación, un poco más práctica, es la inundación selectiva. En este algoritmo, los enrutadores no envían cada paquete de entrada por todas las líneas, sino solo por aquellas que van aproximadamente en la dirección correcta.

La inundación siempre escoge la trayectoria mas corta posible, porque escoje en paralelo todas las trayectorias posibles.


ENRUTAMIENTO BASADO EN FLUJO:

Este algoritmo estático usa tanto la topología como la carga para el enrutamiento.

La idea en que se basa el análisis es que, para una línea dada, si se conocen la capacidad y el flujo promedio es posible calcular el retardo promedio de los paquetes en esa línea a partir de la teoría de colas. De los retardos promedios de todas las líneas, son directo el calculo de un promedio ponderado por el flujo para obtener el retardo del paquete medio de la subred completa.

Los pesos de los arcos dan las capacidades, Cij , en cada dirección , medidas en kbps. La entrada par al origen i al destino j muestra la ruta a usar para el tráfico i - j y tambien la cantidad dde paquetes/seg a embiar del origen i al destino j.


ENRUTAMIENTO POR VECTOR DE DISTANCIA:

Los algoritmos de enrutamiento por vector distancia operan haciendo que cada enrutador mantenga una tabla que da la mejor distancia conocida a cada destino y la línea a usar para llegar ahí. Estas tablas se actualizan intercambiando información con los vecinos.

Este algoritmo a veces recibe otros nombres, algoritmo de enrutamiento Bellman-Ford distribuido y el algoritmo Ford-Fulkerson. Este fue el algoritmo original de ARPANET y también se usó en internet con el nombre RIP.

En el enrutamiento por vector distancia, cada enrutador mantiene una tabla de enrutamiento indexada por, y conteniendo un registro de, cada enrutador de la subred. Esta entrada comprende dos partes: la línea preferida de salida hacia ese destino y una estimación del tiempo o distancia a ese destino.

Ejemplo: Supóngase que se usa como metrica de retardo y que el enrutador conoce el retardo a cada uno de sus vecinos. Una vez cada T mseg, cada enrutador envía a todos sus vecinos una lista de sus retardos estimados a cada destino. También recibe una lista parecida de cada vecino. Imagine que una de estas tablas acaba de llegar del vecino X, siendo Xi, la estimación de X respecto al tiempo que le toma llegar al enrutador i. Si el enrutador sabe que el retardo a X es de m mseg, también sabe que puede alcanzar el enrutador i a través de X en Xi + m mseg vía X. Efectuando este calculo para cada vecino, un enrutador puede encontrar la estimación que parezca ser la mejor y usar esa estimación y la línea correspondiente en su nueva tabla de enrutamiento.


ENRUTAMIENTO POR ESTADO DE ENLACE:

El enrutamiento por vector de distancia se uso en arpanet hasta 1979, cuando fue reemplazado por el enrutamiento por estado de enlace. Dos problemas principales causaron su defunción. Primero, dado que la métrica de retardo era la longitud de la cola, no tomaba en cuenta el ancho de banda al escoger rutas. Segundo problema, que el algoritmo con frecuencia tardaba demasiado en convergir, aun con trucos como el horizonte dividido.

El concepto en que se basa el enrutamiento por estado de enlace es sencillo y puede postularse en cinco partes. cada enrutador debe:

1. - DESCUBRIR A SUS VECINOS Y CONOCER SUS DIRECCIONES DE RED.

Conocimiento de los vecinos* .Esto lo logra enviando un paquete especial de hola (hello) por cada línea punto a punto. Se espera que el enrutador del otro extremo envíe de regreso una respuesta indicando quien es.

2. - MEDIR EL RETARDO O COSTO PARA CADA UNO DE SUS VECINOS.

*medición del costo de la línea* La manera más directa de determinar si este retardo es enviar un paquete especial eco (hecho) a través de la línea, el cual debe enviar de regreso inmediatamente el otro lado. Si mide el tiempo de ida y vuelta y lo divide entre dos, el enrutador transmisor puede tener una idea razonable del retardo.

3. - CONSTRUIR UN PAQUETEQUE INDIQUE TODO LO QUE ACABA DE APRENDER.

*construcción de los paquetes de estado de enlace* El paquete comienza con la identidad del transmisor, seguida de un numero de secuencia, una edad y una lista de vecinos.

4. - ENVIAR ESTE PAQUETE A TODOS LOS DEMAS ENRUTADORES.

*distribución de los paquetes de estado de enlace* La parte mas complicada del algoritmo es la distribución confiable de los paquetes de estado de enlace.

La idea fundamental es usar inundación para distribuir los paquetes de estado de enlace. A fin de mantener controlada la inundación, cada paquete contiene un numero de secuencia que incrementa con cada paquete nuevo enviado.

5. -CALCULAR LA TRAYECTORIA MAS CORTA A TODOS LOS DEMAS ENRUTADORES.

*calculo de las nuevas rutas* Una vez que un enrutador ha acumulado un grupo completo de paquetes de estado de enlace puede construir el grafo de la subred completa porque todos los enlaces están representados.


ENRUTAMIENTO JERARQUICO.

En cierto momento la red puede crecer hasta el punto en que ya no es factible que cada enrutador tenga una entrada para cada uno de los demás enrutadores, por lo que el enrutamiento tendrá que hacerse jerárquicamente, como ocurre en la red telefónica.

Al usarse el enrutamiento jerarquico, los enrutadores se dividen en lo que llamaremos regiones, donde cada enrutador conoce todos los detalles de la manera de enrutar paquetes a destinos dentro de su propia región, pero no sabe nada de la estructura interna de las otra regiones.


ENRUTAMIENTO PARA HOST MOVILES.

Hoy día millones de personas tienen computadoras portátiles y generalmente quieren leer su correo electrónico y acceder a sus sistemas de archivos normales desde cualquier lugar del mundo. Estos host móviles generan una nueva complicación: para enrutar un paquete a un host móvil, la red primero tiene que encontrarlo.

Usuarios móviles, son aquellos usuarios que estan lejos de casa.

Se supone que todos los usuarios tienen una localidad base, que nunca cambia. Los usuarios tambien tienen una dirección de base permanente, que puede servir para determinar su localidad base.


ENRUTAMIENTO POR DIFUSION.

En algunas aplicaciones los hosts necesitan enviar mensajes a varios otros hosts o a todos los demás.

El envío simultáneo de un paquete a todos los destinos se llama difusión, se ha propuesto varios métodos para llevarla a cabo.

· Un método de difusión, es que el origen simplemente envíe copias del paquete a todos los destinos.
· La inundación es otro candidato obvio.
· Un tercer algoritmo es el enrutamiento multidestino.
· Un cuarto algoritmo es el arbol de extención.
· El ultimo algoritmo es el llamado reenvío por trayectoria invertida.


ENRUTAMIENTO POR MULTITRANSMISIÓN:

Necesitamos una manera de enviar mensajes a grupos bien definidos de tamaño numéricamente grande, pero pequeños en comparación con la totalidad de la red.

El envío de un mensaje a uno de tales grupos se le llama multitransmisión.

Para la multitransmisión se requiere administración de grupos. Se necesita alguna manera de crear y destruir grupos, y un mecanismo para los procesos se unan a los grupos y salgan de ellos. La forma de realizar estas tareas no le concierne al algoritmo de enrutamiento. Lo que sí le concierne es que, cuando un proceso se una a un grupo informe a su host del hecho.

Para hacer el enrutamiento de multitransmisión, cada enrutador calcula un árbol de extensión que cubre a todos los demás enrutadores de la subred.

Al enviar un proceso un paquete multitransmición a un grupo, el primer enrutador examina su árbol de extensión y lo recorta, removiendo todas las líneas que no conducen a hosts que no son miembros del grupo. Los paquetes multitransmisión se reenvian solo a través del canal apropiado.


ALGORITMOS DE CONTROL DE CONGESTIONAMIENTOS

Cuando hay demasiados paquetes presentes en la subred (o en una parte de ella), hay una degradación del desempeño. Esta situación se llama congestionamiento aquí nos muestra este síntoma.

Cuando la cantidad de paquetes descargados en la subred por los host esta dentro de su capacidad de conducción, todos se entregan (excepto unos pocos afligidos por errores de transmisión) y la cantidad entregada es proporcional al numero enviado. Sin embargo, a medida que aumenta él trafico, los enrutadores ya no pueden manejarlo y comienzan a perder paquetes. Esto tiende a empeorar las cosas. A muy alto trafico, el desempeño se desploma por completo, y a casi no hay entrega de paquetes.


EL CONGESTIONAMIENTO PUEDE OCURRIR POR VARIAS RAZONES:

Si repentinamente comienzan a llegar cadenas de paquetes por tres o cuatro líneas de entrada y todos necesitan la misma línea de salida, se generará una cola.

Si no hay suficiente memoria para contenerlos a todos, se perderán paquetes.

Nagle(1987) descubrió que si los enrutadores tienen una cantidad infinita de memoria, el congestionamiento empeora en lugar de mejorar ya que para cuando lo paquetes llegan al principio de la cola su temporización ha terminado (repentinamente) y se han enviado duplicados. Todos estos paquetes serán debidamente reenviados al siguiente enrutador, aumentando la carga en todo el camino hasta el destino.


LOS PROCESADORES LENTOS TAMBIÉN PUEDEN CAUSAR CONGESTIONAMIENTO:

Si las CPU de los enrutadores son lentas para llevar a cabo las tareas de administración requeridas(buffers de encolamiento, actualización de tablas etc.). Las líneas de poco ancho de banda también causan congestionamientos.

El congestionamiento tiende a alimentarse de sí mismo y empeorar. Si un enrutador no tiene buffers libres, debe ignorar los paquetes de entrada nuevos. Al descartarse un paquete, el enrutador transmisor(un vecino) puede terminar su temporización y retransmitirlo, tal vez muchas veces.


PRINCIPIOS GENERALES DEL CONTROL DE CONGESTIONAMAIENTO.

Este enfoque conduce a la división de todas las soluciones en dos grupos:

CICLO ABIERTO: intentan resolver el problema mediante un buen diseño, para asegurarse de que no ocurra desde el principio. Una vez que el sistema esta operando, no se hace correcciones a medio camino.

CICLO CERRADO: se basan en el concepto de un ciclo de realimentación este enfoque tiene tres partes cuando se aplica el control de congestionamiento.

1. - Supervisar el sistema para detectar cuando y donde ocurren congestionamientos.
2. - Pasar esta información a lugares en los que puedan llevarse a cabo acciones.
3. - Ajustar la operación del sistema para corregir el problema.

Otro enfoque mas es hacer que los host o enrutadores envíen periódicamente paquetes le prueba para preguntar explícitamente sobre el congestionamiento. Esta información puede usarse entonces para enrutar él trafico alrededor de las áreas con problemas. Algunas estaciones de radio tienen helicópteros que vuelan sobre la ciudad para informar del congestionamiento en las calles, con la esperanza de que los escuchas enrutaran sus paquetes(autos) fuera de las zonas conflictivas.

Para operar correctamente, debe ajustarse con cuidado la escala de tiempo si cada vez que llegan dos paquetes seguidos el enrutador grita ALTO, y cada vez que el enrutador esta inactivo durante 20 seg. Grita SIGA, por otra parte si el enrutador espera 30 minutos para asegurarse antes de decidir cualquier cosa el mecanismo de control de congestionamiento reaccionará tan lentamente que no será de utilidad. Yang y Reddy (1995) han desarrollado una taxonomía de los algoritmos de control de congestionamientos; comienzan por dividir los algoritmos de ciclo cerrado en algoritmos que actúan en el origen y que actúan en el destino, los algoritmos de ciclo cerrado también se dividen en dos subcategorias: realimentación explícita contra alimentación implícita, en los algoritmos de realimentación explícita se envía paquetes de regreso desde el punto de congestionamiento para avisar al origen, en los algoritmos implícitos, el origen deduce la existencia de un congestionamiento haciendo observaciones locales, como el tiempo para regreso de los reconocimientos.


CAPA DE ENLACE:

La política de retransmisiones tiene que ver con la rapidez con que termina de temporizar un transmisor y con lo que transmite al ocurrir una terminación de temporizador.

Un transmisor nervioso que a veces termina de temporizar demasiado pronto y retransmite todos los paquetes pendientes usando el protocolo de regresar n impondrá una carga más pesada al sistema que un transmisor calmado que usa repetición selectiva. , Si los receptores descartan todos los paquetes que llegan fuera de orden, estos paquetes tendrán que retransmitirse después creando una carga extra.

La política de acuse de recibos también afecta el congestionamientos. Si cada paquete es reconocido de inmediato, los paquetes de acuse de recibo generan trafico extra. Sin embargo, si se guardan los acuses de recibo para incorporarlos en él trafico en reversa, pueden resultar terminaciones de temporización y retransmisiones extra. Un esquema de control de flujo estricto reduce la tasa de datos y permite atacar a los congestionamientos.


CAPA DE RED:

La decisión entre circuitos virtuales y datagramas afecta el congestionamiento ya que muchos algoritmos de control de congestionamiento solo funcionan con subredes de circuitos virtuales.

La política de encolamiento y servicios de paquetes se refiere a que los enrutadores tengan una cola por líneas de entrada, una cola por línea de salida o ambas cosas. La política de descartado es la regla que indica que paquete descartar cuando no hay espacio Una buena política puede ayudar a aliviar el congestionamiento y una mala puede hacerlo peor.

La política de enrutamiento puede evitar el congestionamiento distribuyendo él trafico entre todas las líneas, pero uno malo puede enviar demasiado trafico por líneas ya congestionadas. Gestión de vida de paquetes se encarga del tiempo que puede vivir un paquete antes de ser descartado. Si es demasiado grande los paquetes perdidos pueden bloquear la operación durante un buen rato, pero si es corto los paquetes expiran antes de alcanzar su destino, induciendo retransmisiones.


CAPA DE TRANSPORTE:

Aquí surgen los mismos problemas que en la capa de enlace de datos además es difícil la determinación del intervalo de expiración porque el tiempo de transita a través de la red es menos previsible que el tiempo de transito por un alambre entre dos enrutadores. Si el intervalo es demasiado corto, se enviaran innecesariamente paquete extra; si es demasiado largo, se reducirá el congestionamiento. Pero el tiempo de respuesta sufrirá cada vez que pierda un paquete.

CONFORMACION DE TRAFICO:

Se ocupa de la regularización de la tasa promedio(y tendencia a ráfagas) de la transmisión de datos. Al establecer el circuito virtual, el usuario y la subred(es decir ¡, el cliente y la portadora) acuerdan cierto patrón de trafico (es decir, forma) para este circuito. Mientras el cliente cumpla son su parte del trato y solo envíe paquetes según el contrato acordado, la portadora promete entregarlos todos a tiempo.

La conformación de trafica, el cliente le dice a la portadora: "mi patrón de transmisiones se parecerá a esto. ¿Puedes manejarlo?" Si la portadora esta de acuerdo, surge el asunto de que la portadora sepa si el cliente esta ajustándose al acuerdo, y de lo que debe hacer si no es así. La supervisión de un flujo de trafico se llama vigilancia de trafico.

El acuerdo de una conformación de trafico y su vigilancia posterior son más sencillos en las subredes de circuitos virtuales que en las subredes datagramas.


ALGORITMO DE CUBETA CON GOTEO

Imagínese una cubeta con un pequeño agujero en el fondo, como se ilustra en la figura. Sin importar la rapidez con que entra el agua en la cubeta, el flujo de salida tiene una tasa constante, p, cuando hay agua en la cubeta, y una tasa de cero cuando la cubeta está vacía. También una vez que se llena la cubeta, cualquier agua adicional que entra se derrama por los costados y se pierde (es decir, no aparece en el flujo por debajo del agujero). Puede aplicarse el mismo concepto a los paquetes, conceptualmente cada host esta conectado a la red mediante una interfaz que contiene una cubeta con goteo, es decir, una cola interna finita. Si llega un paquete a la cola cuando está llena, se descarta el paquete.

El esquema fue propuesto por Turner(1986), y se llama algoritmo de cubeta con goteo( leaky bucket algorithm). De hecho no es otra cosa que un sistema de encolamiento de un solo servidor con un tiempo de servicio constante.

Cuando los paquetes son todos del mismo tamaño este algoritmo puede usarse como se describe, al usarse paquetes de tamaño variable con frecuencia es mejor permitir un numero fijo de bytes por pulso, en lugar de un solo paquete. Por lo tanto las reglas son de 1024bytes por pulso, pueden recibirse por pulso un solo paquete de 1024 bytes, dos paquetes de 512bytes, cuatro paquetes de 256bytes etc. Si el conteo de byte residuales es demasiado bajo el siguiente paquete deberá esperar hasta el siguiente pulso. Imagine que una computadora puede producir datos a razón de 25 millones de bytes/seg. (200 Mbps) y que la red también opera a esta velocidad En la fig. Vemos la entrada de la cubeta con goteo operando a 25MB/seg durante 40 mseg. Y a la segunda vemos la salida drenándose a una velocidad uniforme de 2MB/seg durante/500 mseg.


ALGORITMO DE LA CUBETA CON FICHA

El algoritmo de cubeta con goteo impone un patrón de salida rígido a la tasa promedio, sin importar la cantidad de ráfagas que tengan trafico.

En muchas aplicaciones es mejor permitir que la salida se acelere un poco al llegar ráfagas grandes, por lo que se necesita un algoritmo más flexible, de preferencia uno que nunca pierda datos.

El algoritmo de cubeta con ficha (Token bucket algorithm) es uno de los tales algoritmos. En este algoritmo, la cubeta con goteo contiene fichas generadas por un reloj a razón de una ficha cada T segundos.

CARACTERÍSTICAS:

NoS permite que los host inactivos acomulen permisos para enviar posteriormente ráfagas grandes. o Descarta las fichas cuando la cubeta se llena, pero nunca descarta los paquetes. o Solo puede trasmitirse un paquete si hay suficientes fichas disponibles para cubrir su longitud en bytes.

Los algoritmos de cubeta con goteo y cubeta con ficha pueden servir para regular él trafico entre los enruteadores, de la misma manera en que se usan para regular la salida de un host, como en nuestros ejem. Sin embargo, una diferencia clara es que una cubeta con ficha que regula a un host detenga el envío cuando las reglas dicen que debe hacerlo. Indicar a un Ruteador que detenga la transmisión mientras se sigue recibiendo entradas puede resultan en la perdida de datos.


CONTROL DE CONGESTIONAMIENTO EN LAS SUBREDES DE CIRCUITOS VIRTUALES.

o Control de admisión. Una vez que se ha detectado el congestionamiento no se establecen circuitos virtuales. o Nuevos circuitos virtuales, pero enrutando cuidadosamente los circuitos nuevos por otras rutas que no tienen problemas.


PAQUETES DE ESTRANGULAMIENTO DE ESCALA POR ESCALA:

El envío de un paquete de estrangulamiento a los hosts de origen a altas velocidades y distancias grandes.

DESPRENDIMIENTO DE CARGA: (para eliminar el congestionamientos)

· Es una manera rebuscada de decir que, al inundarse los enrutadores de paquetes que no pueden manejar y simplemente los tiran. · Un enrutador abrumado por paquetes puede simplemente escoger paquetes al azar para desprenderse de ellos, pero normalmente puede hacer algo mejor.

· El paquete a descartar puede depender de las aplicaciones que se están ejecutando.

· Un paso por encima de esto en cuanto a inteligencia requiere la cooperación de los transmisores.

· En muchas aplicaciones, algunos paquetes son más importantes que otros.

· Para poner en practica una política inteligente de desprendimiento, las aplicaciones deben marcar sus paquetes con clases de prioridades para indicar su importancia.

· Si lo hacen, él tener que descartar paquetes, los enrutadores pueden desprenderse de los paquetes de clase más baja luego de la siguiente clase más baja.

CONTROL DE FLUTUACIÓN:

En aplicaciones como la transmisión de audio y vídeo no importa gran cosa si los paquetes tardan 20 mseg o 30mseg en ser entregados, siempre y cuando el tiempo de transito sea constante. Si unos paquetes se tardan 20 mseg y otros 30 mseg, se obtendrá una calidad desigual del sonido o la imagen.

La fluctuación puede limitarse calculando el tiempo de transito esperado para cada escala de la trayectoria. Al llegar un paquete a un enrutador, el enrutador lo examina para saber que tan adelantado o retrasado está respecto lo programado. Esta información se almacena en un paquete y se actualiza en cada escala, si el paquete esta adelantado, se retiene durante el tiempo suficiente para regresarlo respecto a lo programado; si esta retrasado, el enrutador trata de sacarlo rápidamente. El algoritmo para determinar cual de varios paquetes que compiten por una línea de salida debe seguir siempre, puede escoger el paquete más retrasado. De esta manera, los paquetes adelantados se frenan y los paquetes retrasados se aceleran, reduciendo en ambos casos la cantidad de fluctuación.


CONTROL DE CONGESTIONAMIENTO PARA MULTITRANSMISIÓN.

Todos los algoritmos de control de congestionamiento estudiados hasta el momento se aplican a mensajes de un solo origen a un solo destino. En muchas aplicaciones multitransmisión, los grupos pueden cambiar de miembros dinámicamente.

INTERCONEXIÓN DE REDES:

- Tanto como el asunto de la congestión, la interconexión de redes también está muy relacionada con la función principal de la capa de red: el encaminamiento.

- Cuando las máquinas de origen y destino se encuentran localizadas en redes diferentes, todos los problemas comunes de encaminamiento se encuentran presentes, sólo que agudizados.

- Si las redes que conectan a las máquinas de origen y destino no se encuentran conectadas directamente, el algoritmo de encaminamiento tendrá que determinar la trayectoria a través de una o más redes intermedias.

- Por otra parte, no todas las redes utilizan los mismos protocolos, por lo que los formatos de los paquetes son diferentes, etc., por lo que es necesario realizar conversiones Existen muchas redes diferentes, que incluyen las LAN, MAN y WAN. En cada capa hay numerosos protocolos de uso muy difundido. En esta sección estudiaremos los problemas cuando dos o más redes se unen formando una interred.

La interred es una red formada por la interconexión de varias redes. Las redes pueden diferir de muchas maneras. La conciliación de está diferencias es lo que hace más difícil el proceso de interconexión de redes que la operación con una sola red. Por su tecnología (token-ring, Ethernet) Por tipo (LAN, WAN) Protocolo (TCP/IP, DECNET). DISPOSITIVOS PARA LA INTERCONEXIÓN DE REDES DIFERENTES. · Repetidores.- copian bit individual entre segmento de cable.

· Puentes.- almacenan y reenvían marcos de enlace de datos entre las LAN.

· Routers, conmutadores.- reenvían paquetes disimilares.

· Pasarelas.- dispositivo que conecta dos o más redes disimilares. En la siguiente figura se ilustran 4 tipos diferentes de conexiones como líneas punteadas.en cada caso, es necesario introducir una "caja negra" en las uniones entre dos redes, para manejar las conversiones necesarias a medida que los paquetes se mueven de una red a otra.

1. LAN-LAN: Un informático descargando archivos para ingeniería.

2. LAN-WAN: Un informático enviando correo a un físico lejano.

3. WAN-WAN: Dos poetas intercambiando sonetos.

4. LAN-WAN-LAN: Ingenieros de diferentes universidades comunicándose.


PROCESO DE TUNEL:

En que un host de origen y el de destino están en la misma clase de red, pero hay una red diferente en medio.

La solución de este problema en una técnica llamada PROCESO DE TUNEL. Ejemplo. Tenemos un banco internacional con una Ethernet basada en TCP/IP en Paris, una Ethernet basada en TCP/IP en Londres y una WAN PTT en medio. Para enviar una paquete IP al host 2, el host 1 construye el paquete que contiene la dirección IP del host 2, lo inserta en un marco Ethernet dirigido al enrutador multiprotocolo de parís, y lo pone en el Ethernet. Cuando el enrutador multiprotocolo recibe el marco, retira el paquete Ip, lo inserta en el campo de carga útil del paquete de capa de red de la WAN del enrutador multiprotocolo de Londres. Al llegar ahí, el enrutador de Londres retira el paquete IP y lo envía al host 2 en un marco Ethernet. La WAN puede visualizarse como un gran túnel que se extiende de una enrutador multiprotocolo al otro. El paquete IP simplemente viaja de una extremo del túnel al otro, bien acomodado en una caja bonita. No tiene que preocuparse por lidiar con la WAN. Al igual que los hosts de cualquiera de los Ethernet. Solo el enrutador multiprotocolo tiene que entender los paquete IP y WAN. La distancia completa entre la mitad de un enrutador multiprotocolo y la mitad del otro actúa como una línea en serie.


ENRUTAMIENTO DE INTERRED:

El enrutamiento a través de una interred es parecido al enrutamiento en una sola subred, pero con algunas complicaciones adicionales.

En una interred con varias redes conectadas mediante enrutadores, multiprotocolo es muy común que se pueda acceder directamente a todos los demás enrutadores conectados a cualquier red a la que este conectado. Diferencias entre el enrutamiento de Interredes y de Intrared.

· El enrutamiento Interredes con frecuencia requiere el cruce de fronteras internacionales.

· El costo es otra diferencia ya que en una sola red normalmente se aplica un solo algoritmo de cargo.

Mientras que redes diferentes pueden estar bajo administraciones diferentes y una ruta puede ser menos cara que otra. En una interred grande la selección de la mejor ruta puede ser una operación muy tardada.


FRAGMENTACION

La fragmentación ocurre cuando se va enviar un paquete, este paquete es grande y la red por donde se va ha enviar tiene un tamaño máximo de paquete demasiado pequeño. Entonces este paquete grande se fragmenta enviando cada paquete como paquete de interred individual. Lo difícil es volver a juntas dichos paquetes y formar el original. Existen dos estrategias opuestas para recombinar los fragmentos y recuperar el paquete original.

a) FRAGMENTACIÓN TRANSPARENTE. En esta estrategia el paquete si pasa por redes intermedias cada vez que llegue a una se fragmenta al salir sé reensambla, así que llega a otra red como el paquete original. Hace lo mismo hasta que llegue a sí destino.

b) FRAGMENTACIÓN NO TRANSPARENTE. En esta estrategia el paquete se fragmenta y cada fragmento se trata como un paquete original y así viajan por todas las redes necesarias para llegar a su destino ya que llegan a su destino se vuelven a reensamblar.


MUROS DE SEGURIDAD:

Son mecanismos para mantener adentro los bits "buenos" y fuera los bits "malos". Esta configuración tiene dos componentes: dos enrutadores que filtran paquetes y una pasarela de aplicación. Donde cada paquete debe transitar por dos filtros y una pasarela de aplicación para poder entrar o salir. No existe otra ruta. Un ejemplo es cuando navegamos en Internet nosotros estamos expuestos a que nos contagien con un virus o que acecen información de nuestra máquina. Y con mecanismos de seguridad como antivirus evitamos esto. Por ejemplo un castillo esta rodeado de un canal y para poder entrar o salir del castillo la única forma es por un solo medio un puente al pasar por este se nos revisara y permitirá salir o entrar. Cada filtro de paquetes es un enrutador estándar equipado con cierta funcionalidad extra, la cual permite la inspección de cada paquete de estrada o salida. Los paquetes que satisfacen algún criterio se reenvían normalmente. Los que fallan la prueba se descartan. La pasarela de aplicación. En lugar de simplemente ver paquetes en bruto, la pasarela opera en el nivel de aplicación.


INTERREDES SIN CONEXIÓN

El modelo alternativo al de interconexión de redes del CCITT es el modelo datagrama. En este modelo el único servicio que la capa de red llega a ofrecer a la capa de transporte es la capacidad para introducir un datagrama en la subred y esperar el mejor resultado de esto. Realmente no existe ninguna noción de circuitos virtuales en la capa de red, y menos de una concatenación entre ellos. Este modelo no requiere que todos los paquetes que lleguen a pertenecer a una conexión, recorran siempre la misma secuencia de pasarelas. Para que los datagramas vayan de una pasarela a otra en una interconexión de redes, estos se encapsulan según el formato de la capa de enlace, de cada una de las redes, por las que lleguen a pasar.



©Uriarte Ramírez José Rodolfo

©Arredondo Hernandez Edy Paul