¿QUE ES ETHERNET?
La ethernet es una capa de hardware o nivel físico para las redes, como todo el mundo sabe no es la única disponible, aunque si la más utilizada y extendida. Ethernet es el protocolo por el cual se comunican los computadores en un entorno LOCAL de red. El cable que se inserta atrás de la computadora y parece un "jack" de teléfono grande es utilizado para enviar información en este protocolo, la computadora utiliza una tarjeta NIC ("Network Interface Card") para realizar la comunicación.
Es un estándar de redes de computadoras para conectar dos o más computadoras locales, en una proximidad física con el que se podrá intercambiar información entre computadoras y manejar completamente una computadora desde la otra. Además de poder compartir el acceso a internet.
Ethernet es una popular tecnología LAN (Red de Área Local) que como protocolo es considerado el Acceso múltiple con portadora y detección de colisiones (Carrier Sense Múltiple Access with Collision Detection, CSMA/CD) entre estaciones con diversos tipos de cables, lo cual significa que por su cable solo puede ser transmitida una sola señal a cierto punto en el tiempo, esto es, si a un cable se encuentran conectadas 10 o 20 PC's, sólo una puede transmitir información a la vez,las demás deben esperar a que finalice la transmisión.
Además de esta característica CSMA/CD, el protocolo "Ethernet" también utiliza lo que es denominado "Broadcast" o "Transmisión a todas las terminales" , considerando el ejemplo anterior, lo que ocurre cuando una PC envía información es que las otras 9 o 19 recibirán esta misma información, lo que sucede posteriormente es que solo la PC con la dirección MAC especificada acepta la información, las restantes la descartan.
Ethernet define las características de cableado y señalización de nivel físico y los formatos de tramas de datos del nivel de enlace de datos del modelo OSI. La Ethernet se tomo como base para la redacción del estándar internacional IEEE 802.3. Usualmente se toman Ethernet e IEEE 802.3 como sinónimos. Ambas se diferencian en uno de los campos de la trama de datos. Las tramas Ethernet e IEEE 802.3 pueden coexistir en la misma red.
Desde sus inicios, la red Ethernet ha venido evolucionando para dotarse de más capacidad, seguridad, fiabilidad, calidad de servicio, protección, facilidades de operación y mantenimiento, etc. Esta evolución la ha hecho dejando prácticamente inalteradas las especificaciones no físicas, de manera que sea compatible con los estándares anteriores, lo que ha sido parte de su gran éxito, ya que de esta manera la mayor parte del equipamiento y, consecuentemente, la inversión realizada, seguía siendo válida.
COMPONENTES DE ETHERNET:
Consta de cuatro elementos básicos:
El medio físico: compuesto por los cables y otros elementos de hardware, como conectores, utilizados para transportar la señal entre los computadores conectados a la red.
Los componentes de señalización: dispositivos electrónicos estandarizados (transceivers) que envían y reciben señales sobre un canal Ethernet.
El conjunto de reglas para acceder al medio: protocolo utilizado por la interfaz (tarjeta de red) que controla el acceso al medio y que le permite a los computadores acceder (utilizar) de forma compartida el canal Ethernet. Existen dos modos: half y full dúplex.
El frame (paquete) Ethernet: conjunto de bits organizados de forma estándar. El frame es utilizado para llevar los datos dentro del sistema Ethernet. También recibe el nombre de marco o trama.
CARACTERISTICAS DE ETHERNET:
-Utiliza un medio de transmisión PASIVO, es decir, no requiere una fuente de alimentación propia su fuente de alimentación son los mismos equipos, y por tanto,
-NO FALLA, si falla un equipo la comunicación no se pierde a menos que el cable se corte físicamente o su terminación sea incorrecta.
-Se conecta utilizando una TOPOLOGÍA DE BUS en la que el cable está terminado en ambos extremos.
-UTILIZA MÚLTIPLES PROTOCOLOS DE COMUNICACIÓN y puede conectar entornos informáticos heterogéneos, incluyendo Netware, UNIX, Windows y Macintosh.
OBJETIVOS DE ETHERNET:
La idea original de Ethernet nació del problema de permitir que dos o mas hots utilizaran el mismo medio y evitar que las señales interfirieran entre si. Los objetivos principales de Ethernet son consistentes con los que se han convertido en los requerimientos básicos para el desarrollo y uso de redes LAN.
Los objetivos originales de Ethernet son:
Simplicidad
Las características que puedan complicar el diseño de la red sin hacer una contribución substancial para alcanzar otros objetivos se han excluido.
Bajo Costo
Las mejoras tecnológicas van a continuar reduciendo el costo global de los dispositivos de conexión.
Compatibilidad
Todas las implementaciones de Ethernet deberán ser capaces de intercambiar datos a nivel de capa de enlace de datos. Para eliminar la posibilidad de variaciones incompatibles de Ethernet, la especificación evita características opcionales.
Direccionamiento flexible
El mecanismo de direccionamiento debe proveer la capacidad de dirigir datos a un único dispositivo, a un grupo de dispositivos, o alternativamente, difundir (broadcast) el mensaje a todos los dispositivos conectados a la red.
Equidad
Todos los dispositivos conectados deben tener el mismo acceso a la red.
Progreso
Ningún dispositivo conectado a la red, operando de acuerdo al protocolo Etheret, debe ser capaz de prevenir la operación de otros dispositivos.
Alta velocidad
La red debe operar eficientemente a una tasa de datos de 10 Mb/s.
Bajo retardo
En cualquier nivel de tráfico de la red, debe presentarse el mínimo tiempo de retardo posible en la transferencia de datos.
Estabilidad
La red debe ser estable bajo todas las condiciones de carga. Los mensajes entregados deben mantener un porcentaje constante de la totalidad del tráfico de la red.
Mantenimiento
El diseño de Ethernet debe simplificar el mantenimiento de la red, operaciones y planeamiento.
Arquitectura en capas
El diseño Ethernet debe ser especificado en término de capas de forma de separar las operaciones lógicas de los protocolos de capa de enlace de las especificaciones de comunicaciones físicas del canal de comunicación.
EVOLUCION
• ETHERNET ESTANDAR
Utilizaba hub (Medio compartido) – Halfduplex.
Opera en capa 1 de modelo OSI.
Redes 10BASE-T.
• ETHERNET ACTUAL
Uso de switches para remplazar los hubs.
Redes 100BASE-TX.
Controlan el flujo de datos aislando cada puerto.
Comunicaciones full dúplex.
Opera en capa 2 de modelo OSI.
• ETHERNET GIGABIT
Redes más sólidas.
Más servicios que requieren conexiones más rápidas.
Creados sobre medios UTP y fibra óptica.
Ethernet Gigabit se aplica más allá de la LAN (A través de fibra óptica).
VENTAJAS DE ETHERNET:
Ethernet es popular porque permite un buen equilibrio entre velocidad, costo y facilidad de instalación. Estos puntos fuertes, combinados con la amplia aceptación en el mercado y la habilidad de soportar virtualmente todos los protocolos de red populares, hacen a Ethernet la tecnología ideal para la red de la mayoría de usuarios de la informática actual.
Sencillez y facilidad de mantenimiento. Capacidad para incorporar nuevas tecnologías.
Confiabilidad, Bajo costo de instalación y de actualización. Con la llegada de Gigabit
Ethernet, lo que comenzó como una tecnología LAN ahora se extiende a distancias que hacen de Ethernet un estándar de red de área metropolitana (MAN) y red de área amplia (WAN).
HISTORIA
PRECURSORES
Norman Abramson fue el desarrollador de ALOHAnet. El y sus colaboradores pretendían conectar usuarios remotos con una computadora central situada en Honolulu. Realizo la primera red que transmitió datos en una computadora por medio de ondas de radio en vez de cables y líneas telefónicas.
Fueron las primeras experiencias de redes broadcast (Son las redes donde lo datos llegan a todas las maquinas de la red, un solo canal de comunicación) en Hawaii: ALOHANET. Protocolos MAC ALOHA puro (En este protocolo las estaciones transmiten en cuanto tienen datos para enviar, al actuar así se producen colisiones, estas colisiones deberán de ser descartadas para proseguir con la transmisión) y ranurado (Es un método en el que el tiempo se divide en intervalos discretos (ranuras), de esta forma las estaciones sólo pueden transmitir cuando comienza un intervalo, solo se producirán colisiones porque dos o más máquinas transmitan con el mismo intervalo), es decir sin detección de portadora.
Mientras Abramson montaba ALOHANET en Hawaii, un estudiante del MIT llamado Robert Metcalfe experimentaba con la recién estrenada ARPANET y conectaba ordenadores en un laboratorio. Metcalfe conocía las experiencias de Abramson y empezó una tesis doctoral en Harvard (que terminaría en 1973), en la que desde un punto de vista teórico planteaba mejoras que se podrían introducir al protocolo ALOHA para aumentar su rendimiento. La idea básica era muy simple: las estaciones antes de transmitir deberían detectar si el canal ya estaba en uso (es decir si ya había 'portadora'), en cuyo caso esperarían a que la estación activa terminara antes de transmitir. Además,cada estación mientras transmitiera estaría continuamente vigilando el medio físico por si se producía alguna colisión, en cuyo caso pararía y transmitiría más tarde. Años después este protocolo MAC recibiría la denominación Acceso Múltiple con Detección de Portadora y Detección de Colisiones, o mas brevemente CSMA/CD (Carrier Sense Multiple Access / Colision Detect).
En 1972 Metcalfe se mudó a California para trabajar en el Centro de Investigación de Xerox en Palo Alto llamado Xerox PARC (Palo Alto Research Center). Se estaban probando unos ordenadores denominados Alto, que disponían de capacidades gráficas y ratón y son considerados los primeros ordenadores personales. También se estaban fabricando las primeras impresoras láser. Se quería conectar los ordenadores entre sí para compartir ficheros y las impresoras. La comunicación tenía que ser de muy alta velocidad, del orden de megabits por segundo, ya que la cantidad de información a enviar a las impresoras era enorme (tenían una resolución y velocidad comparables a una impresora láser actual).
A Metcalfe, el especialista en comunicaciones del equipo con 27 años de edad, se le encomendó la tarea de diseñar y construir la red que uniera todo aquello. Contaba para ello con la ayuda de un estudiante de doctorado de Stanford llamado David Boggs. Las primeras experiencias de la red, que denominaron ‘Alto Aloha Network’, las llevaron a cabo en 1972. Fueron mejorando gradualmente el prototipo.
NACIMIENTO
22 de mayo de 1973 Metcalfe escribió un memorándum interno en el que informaba de la nueva red. Para evitar que se pudiera pensar que sólo servía para conectar ordenadores Alto cambió el nombre inicial por el de Ethernet, que hacía referencia a la teoría de la física hoy ya abandonada según la cual las ondas electromagnéticas viajaban por un fluido denominado éter que se suponía llenaba todo el espacio (para Metcalfe el 'éter' era el cable coaxial por el que iba la portadora).
La red de 1973 ya tenía todas las características esenciales de la Ethernet actual. Empleaba CSMA/CD para minimizar la probabilidad de colisión, y en caso de que ésta se produjera ponía en marcha el mecanismo de retroceso exponencial binario para reducir gradualmente la ‘agresividad’ del emisor, con lo que éste se adaptaba a situaciones de muy diverso nivel de tráfico. Tenía topología de bus y funcionaba a 2,94 Mb/s sobre un segmento de cable coaxial de 1,6Km de longitud. Las direcciones eran de 8 bits y el CRC de las tramas de 16 bits. El protocolo utilizado al nivel de red era el PUP (Parc Universal Packet) que luego evolucionaría hasta convertirse en el actual XNS (Xerox Network System). En vez de utilizar cable coaxial de 75 W, más habitual por ser el utilizado en redes de televisión por cable, se optó por emplear cable de 50 W que producía menos reflexiones de la señal, a las cuales Ethernet era muy sensible por transmitir la señal en banda base (es decir sin modulación). Las reflexiones se producen en cada empalme del cable y en cada 'pincho' vampiro (transceiver). En la práctica el número máximo de pinchos vampiro, y por tanto el número máximo de estaciones en un segmento de cable coaxial, viene limitado por la máxima intensidad de señal reflejada tolerable.
En 1975 Metcalfe y Boggs describieron Ethernet en un artículo que enviaron para su publicación a Communications of the ACM (Association for Computing Machinery).
Xerox creó una nueva división denominada SDD (Systems Development Division) para el desarrollo de los ordenadores personales y de la red Ethernet (ambos proyectos estaban íntimamente relacionados). Metcalfe, Boggs y varios ingenieros más fueron asignados para trabajar en la mejora de la red. Se introdujeron algunos cambios en la tecnología, y por razones de marketing se decidió cambiar el nombre de la red de Ethernet a X-wire.
Por aquellos años la tendencia de la mayoría de los fabricantes era hacia arquitecturas de redes jerárquicas. El planteamiento de Xerox era radicalmente opuesto y novedoso. Cada usuario disponía de un ordenador conectado directamente a la red local, integrando en él todas las funciones. No existía ningún control centralizado de la red. La comunicación entre dos usuarios cualesquiera ocurría directamente, sin intermediarios y en condiciones de igual a igual ('peer to peer'). Ligada a esta arquitectura distribuida estaba la necesidad de una red de muy alta velocidad para los estándares de la época (baste recordar que por aquel entonces los módems mas veloces eran de 1200 b/s, y en el año 1976 Intel anunció el procesador 8080 que funcionaba a 4,77 MHz).
Xerox no supo o no pudo aprovechar comercialmente este acierto. En el caso de Ethernet jugaba en su contra el hecho de ser una tecnología propietaria y no ser Xerox una empresa lo suficientemente grande como para imponer sus productos frente a sus competidores, aspecto fundamental tratándose de comunicaciones. Seguramente también influyó el hecho de ser una tecnología demasiado avanzada para su época. Metcalfe comprendió perfectamente que Ethernet solo podría avanzar si se desarrollaba como un estándar abierto y en cooperación con otros fabricantes, ya que así obtendría un mayor impulso comercial y tecnológico.
Fue publicado el artículo que enviaron a Communications of the ACM (Association for Computing Machinery). En él ya describían el uso de repetidores para aumentar el alcance de la red.
Robert Metcalfe presentó Ethernet en una conferencia durante la que dibujó lo que queda como el primer dibujo conocido de Ethernet:
En realidad este dibujo se puede representar asi:
EVOLUCION
Metcalfe, Boggs y otros dos ingenieros de Xerox recibieron una patente por la tecnología básica de Ethernet.
Metcalfe y Boggs recibieron patente por el repetidor. En esta época todo el sistema Ethernet era propietario de Xerox.
Para un mayor impulso comercial y tecnológico, se crea alianza DIX (DEC “Digital Equipment Corporation”-Intel-Xerox) fue satisfactoria en todos los aspectos, excepto en el nombre X-wire, por lo que Xerox volvió al nombre inicial Ethernet aceptado por todos. También se pretendia subir la velocidad de la red a 10 Mb/s. A la Ethernet original de 2,94 Mb/s se la conoce como Ethernet Experimental para distinguirla de la de 10 Mb/s que fue el primer producto comercial.
En junio de 1979 Metcalfe abanda Xerox para crear su propia empresa especializada en Computadores, Comunicaciones y Compatibilidad, mas conocida como 3Com.
En febrero de 1980 el comité de redes locales IEEE pone en marcha un proyecto sobre la tecnología para establecer el estándar de red local de 1 a 2 Mbps con el objetivo de que los productos de diferentes fabricantes puedan interoperar, habría libre competencia y los precios bajarían, beneficiando al usuario.
El proyecto se denominó 802 (año y mes de su constitución). Inicialmente el proyecto (o comité) propuso que el proceso de estandarización: debía ser abierto, ordenado y justo. Decidieron estandarizar el nivel físico, el de enlace y superiores. Dividieron el nivel de enlace en dos subniveles: el de enlace lógico, encargado de la lógica de re-envíos, control de flujo y comprobación de errores, y el subnivel de acceso al medio, encargado de arbitrar los conflictos de acceso simultaneo a la red por parte de las estaciones.
Pero en abril de 1980, la alianza DIX informó al comité 802 que estaba terminando el diseño y especificación de una tecnología de red local, que la propondría para su estandarización, pero que el comité no podría participar en su elaboración.
El comité 802 recibió otra de General Motors de una red denominada Token Bus, también con topología de bus pero que utilizaba un protocolo MAC basado en paso de testigo e IBM presentó otra de una red con topología de anillo y paso de testigo que recibía el nombre de Token Ring.
Como no sería posible satisfacer a todos con un único estándar, y considerando el apoyo de la industria a las tres propuestas no podía descartar ninguna, optó por aceptar las tres propuestas y crear un subcomité para cada una de ellas: 802.3 para CSMA/CD (Ethernet), 802.4 para Token Bus y 802.5 para Token Ring. Cada uno de estos tres "estándares" tenía un nivel físico diferente, un subnivel de acceso al medio distinto pero con algún rasgo común (espacio de direcciones y comprobación de errores), y un nivel de enlace lógico único para todos ellos.
El comité 802.3 introdujo cambios, el más importante fue la sustitución del campo tipo (que especifica el protocolo del nivel de red) por un campo longitud, inexistente hasta entonces. Esta pequeña modificación tenía el efecto colateral de hacer incompatible el estándar IEEE 802.3 con Ethernet DIX, Xerox resolvió en parte el problema de incompatibilidad producido por la decisión del IEEE asignando a todos los protocolos códigos superiores a 1536, valor máximo del campo longitud. Así analizando el valor de este campo podemos saber si la trama tiene formato DIX u 802.3. Los dos formatos son incompatibles, pero pueden coexistir en una misma red.
En septiembre de 1980 DIX publicó las especificaciones de Ethernet Versión 1.0 conocidas como 'libro azul' a velocidad de 10 Mbps. Como parte de la política aperturista Xerox aceptó licenciar su tecnología patentada a todo el que lo quisiera por una cuota. Mas tarde con la aprobación de los estándares 802 la gestión de esas direcciones pasó a desempeñarla el IEEE, que sigue cobrando actualmente en concepto de tareas administrativas. La publicación del libro azul hizo de Ethernet la primera tecnología de red local abierta multivendedor, ya que a partir de ese momento cualquier fabricante podía construir equipamiento conforme con la norma Ethernet.
3Com fabrica primeras tarjetas Ethernet para PC.
En 1982 se publicó Ethernet Versión 2.0, que fue la última especificación de Ethernet publicada por DIX, velocidad de 10Mbps. En estas especificaciones el único medio físico que se contemplaba era el cable coaxial grueso hoy conocido como 10BASE5. En ese mismo año 1982 Xerox liberó la marca registrada que ostentaba sobre el nombre Ethernet.
3Com produce las primeras tarjetas 10BASE2 para PC.
Los componentes de las primeras redes Ethernet (repetidores, transceivers, tarjetas de red, etc.) eran muy caros.
Aparecieron a partir de 1982 productos en el mercado que permitían utilizar Ethernet sobre cable coaxial RG58, también de 50 ohmios pero mas fino y barato. Utilizaba conectores BNC en vez de conectores tipo N, y no requería cable drop ya que el equipo se podía enchufar directamente al cable bus mediante un conector en T, estando en este caso la función del transceiver integrada en la tarjeta de red. En conjunto se conseguía un ahorro importante respecto al cable grueso tradicional, razón por la cual este cable se conocía con el nombre de cheapernet ('red más barata'). Este cable tenía un menor apantallamiento que el 10BASE5, lo cual le confería una mayor atenuación y por ende menor alcance (185 m por segmento en vez de 500 m). La interconexión de segmentos cheapernet (o thinwire como también se le llamaba) con segmentos de coaxial grueso (o thickwire) se podía realizar mediante repetidores. El cable coaxial fino fue incorporado al estándar 802.3 con la denominación 10BASE2 mediante una adenda que el IEEE aprobó en 1985.
El 24 de junio de 1983 el IEEE aprobó el estándar 802.3, contemplando como medio físico únicamente el cable coaxial grueso, al cual denominó 10BASE5. En el estándar se recomienda que el cable sea de color amarillo para que no se confunda en las conducciones con los cables de alimentación eléctrica. El estándar IEEE 802.3 fue propuesto a continuación a ANSI, después fue propuesto para su aprobación por el ISO.
El estándar IEEE 802.3 fue aprobado por ANSI en diciembre de 1984, elevándolo así a la categoría de estándar conjunto ANSI/IEEE 802.3.
El 1 de enero de 1984 una decisión judicial en Estados Unidos rompe el monopolio AT&T en telefonía. AT&T se subdivide en AT&T Long Lines y 23 BOCs (Bell Operating Companies). Los usuarios pasan a ser propietarios de su red telefónica interior y pueden gestionarla.
En el año 1984 el comité 802.3 empezó a estudiar la posibilidad de implementar Ethernet en cable telefónico. Por aquel entonces muchos expertos aseguraban que una red de 10 Mb/s jamás podría funcionar sobre cable de pares sin apantallar, debido a la mayor atenuación de este medio a altas frecuencias.
Ya en su artículo de 1976 Metcalfe y Boggs mencionaban la posibilidad de extender la red mediante el uso de repetidores 'filtradores de tráfico' o de paquetes.
Dec comercializa los primeros puentes transparentes. Aunque caros y de bajo rendimiento comparados con los actuales eran alternativa a los routers por su sencillez y relación precio/prestaciones.
Se publica el estándar IEEE 802.3, que ISO aceptó como DIS (Draft International Standard) en bajo la denominación ISO/IEC 8802-3, versión adaptada del IEEE 802.3. La especificación de ISO es técnicamente equivalente pero no idéntica a la de IEEE/ANSI. El documento difiere en las unidades (que están basadas en el sistema métrico), se utiliza terminología internacional, se eliminan referencias a otros estándares nacionales de Estados Unidos, y se formatea el documento para papel de tamaño ISO A4.
PRIMER ESTANDARD DEL IEEE.
– 10 Mb/s sobre un medio compartido
– Basado en “Ethernet Blue Book”
– Topologia compartida en bus.
Primeros productos 10BASE-T de Synoptics, sacó al mercado un producto denominado LattisNet que permitía utilizar cableado UTP para constituir redes Ethernet de 10 Mb/s.
El comité 802.3 estandarizó una red denominada StarLAN o 1BASE5, variante de
Ethernet que funcionaba a 1 Mb/s sobre cable de pares no apantallado (UTP) a
distancias máximas de 500 m.
El IEEE se puso en marcha para estandarizar el funcionamiento de los puentes transparentes. El resultado fue el estándar 802.1D aprobado en 1990.
En 1988 Van Jacobson (contribuye mejorar el rendimiento del TCP), envió un artículo a usenet informando que había conseguido una velocidad de transferencia de 8 Mb/s sobre Ethernet entre dos estaciones de trabajo Sun utilizando una versión optimizada de TCP. A partir de ese momento las mejoras en el hardware (CPUs, discos, tarjetas controladoras, etc.) y en el software (sistemas operativos, protocolos, etc.) empezaron a hacer cada vez mas fácil que un solo equipo saturara una Ethernet.
Para permitir mayores distancias y mejorar la conectividad entre edificios también se incluye la fibra óptica como medio de transmisión. El FOIRL (Fiber Optic Inter-Repeater Link) es incorporado al estándar 802.3 por el IEEE, y permite unir repetidores a una distancia máxima de 1000 m.
Actualmente FOIRL esta en desuso, en su lugar se emplea 10BASE-FL que permite unir repetidores y equipos con una distancia máxima de 2.000 m.
Se estandariza 10BASE-T (T = 'Twisted') que utilizaba cable de pares trenzados no apantallado (UTP, Unshielded Twisted Pair) y comunicación 10 Mbps modo half –dúplex, al ser una topología en estrella elimina todas las restricciones inherentes a la topología en bus. Esto marcó el final de StarLAN ya que la mayoría de los usuarios que habían optado provisionalmente por StarLAN migraron a 10BASE-T que ofrecía mayor velocidad y evitaba tener que utilizar costosos puentes conversores de velocidad para conectar la red de 1 Mb/s con la de 10 Mb/s.
Se aprueba el estándar 802.1d (puentes transparentes).
Primeros conmutadores Ethernet de Kalpana.
La empresa Kalpana comercializó un nuevo tipo de puentes Ethernet con un número elevado de interfaces (capaz de dar 10Mbps en cada interfaz) y alto rendimiento. Estos equipos se llaman conmutadores LAN para diferenciarlos de los tradicionales puentes, aunque su principio de funcionamiento era el mismo.
Los conmutadores LAN dan una vía de crecimiento a los usuarios de Ethernet sin necesidad de cambiar a otras tecnologías. Los conmutadores LAN producía redes en las que cada puerto era dedicado a un ordenador. Así cada usuario podía disfrutar de 10Mb/s y su tráfico no era visto por ningún otro ordenador salvo por aquel al que iba dirigido, con lo que se mejoraba el rendimiento y la seguridad de la red. El uso de redes conmutadas llevaba de una situación de medio compartido a una de medio dedicado donde ya no era necesario el uso del protocolo CSMA/CD.
Los dos medios más populares de Ethernet (10BASE-T y 10BASE-FL) ofrecen un canal físico diferente para cada sentido de la comunicación.
Debido a estas dos circunstancias se implementó Ethernet full-dúplex, que consiste en aprovechar el medio físico para establecer dos canales dedicados de 10 Mb/s, uno para cada sentido, como si se tratara de una línea punto a punto. Aunque los productos comerciales Ethernet full-dúplex están en el mercado después de la aparición de los conmutadores LAN su funcionamiento no fue estandarizado por el IEEE hasta 1997 en la especificación 802.3x, donde establece un control de flujo para su funcionamiento.
Grand Junction sacó en 1992 una versión de Ethernet que funcionaba a 100 Mb/s. Esto provocó la creación en el IEEE de un grupo de estudio sobre redes de alta velocidad, con la misión de estudiar la posibilidad de ampliar el estándar a 100 Mb/s. Obstaron por mantener el protocolo CSMA/CD en todos sus aspectos, pero aumentar en un factor 10 la velocidad de la red. Al mantener el tamaño de trama mínimo (64 bytes) se reducía en diez veces el tamaño máximo de la red, lo cual daba un diámetro máximo de unos 400 metros. El uso de CSMA/CD suponía además la ya conocida pérdida de eficiencia debida a las colisiones.Tenía la ventaja de acelerar el proceso de estandarización y el desarrollo de productos .Hoy la conocemos como Fast Ethernet, aprobado en junio de 1995. Para acelerar el proceso de estandarización se utilizaron para el nivel físico buena parte de las especificaciones ya desarrolladas por ANSI para FDDI. Los medios físicos soportados por Fast Ethernet son fibra óptica multimodo, cable UTP categoría 3 y categoría 5 y cable STP (Shielded Twisted Pair).
La red Fast Ethernet se extendió con una rapidez, produjo que bajaran los precios y su uso se popularizó hasta el usuario final.
Comercializaron los primeros conmutadores Full Dúplex.
Se estandariza Fast Ethernet 100 Mbps modo half dúplex sobre: 100BASE-FX (MMF, multimode fiber) y 100BASE-TX y 100 BASE-T4 (UTP).
El subcomité 802.3 a inicia otro grupo de trabajo que estudiara el aumento de velocidad de nuevo en un factor diez, creando lo que se denomina Gigabit Ethernet. Las previsiones de aumento en rendimiento y nivel de integración de los chips hacían prever que para 1998 sería factible construir controladores de red para esas velocidades con tecnología convencional a precios asequibles. Se inició un proceso que culminó el 29 de junio de 1998 con la aprobación del suplemento 802.3z.
Se aprueba la 'task force' 802.3z para la estandarización de Gigabit Ethernet.
Se escinde de la task force 802.3z.
Se crea un nuevo grupo de trabajo el 802.3ab para desarrollar la estandarización 1000BASE-T (Gigabit Ethernet) sobre cable UTP categoría 5.
Se aprueba el estándar Ethernet full-dúplex (802.3x), potencialmente aumenta el uso del ancho de banda, bidireccional. La tecnología full-duplex permite transmisores de 200 Mbps porque provee comunicación bidireccional a 100 Mbps, además incrementa la distancia máxima que es soportada por las fibras ópticas entre dosdispositivos DTE (Data Terminal Equipment: Dispositivos de usuarios como ordenadores y terminales, que se conectan a equipos de comunicación de datos (DCE) como módem, ruteadores, puentes, etc. )
Primeros productos comerciales Gigabit Ethernet
La necesidad de diseñar redes mas grandes llevó a la estandarización del Ethernet 1000 Mbpsn (aumentó orden de magnitud x10^2), llamado Gigabit Ethernet (GigaE), con el estándar 802.3z que comprende los medios físicos 1000BASE-T (UTP), 1000BASE-SX (Multi-Mode fiber (MMF)), 1000BASE-LX (Single-mode fiber (SMF)) y 1000BASE-CX (Coaxial).
Para mantener un alto nivel de detección de colisiones, se necesitaba cambiar la longitud mínima de las tramas, pasando de 64 octetos a 512 octetos.
El cableado más común utilizado al nivel horizontal (entre las plantas) es el cable (si es de categoría 5 o más) o la fibra óptica, y al nivel vertical (entre los servidores), se debe utilizar la fibra óptica.
Se estandariza 100BASE-SX (Fast Ethernet mediante emisores láser en primera ventana sobre fibra multimodo).
Gigabit Ethernet, empezó a ser utilizado en los centros de datos y las redes troncales y empresariales y que, actualmente, está llegando incluso a los hogares.
Se estandariza 1000BASE-TX en él se especifica Gigabit Ethernet sobre cable UTP-5 a través un grado de la categoría 5e (enhanced o mejorada: está diseñado para señales de alta integridad. Estos cables pueden ser blindados o sin blindar) y 6 (posee características y especificaciones para crosstalk ”diafonía” y ruido) en sistemas de cableado ya instalado por eso es una solución muy rentable.
Se aprueba el suplemento 802.3ab y constituye ya una realidad comercial constituyendo el medio habitual de conexión de alta capacidad dentro de entornos LAN.
Se publicó una nueva versión del estándar 802.3, 2000 edition que hace obsoleta todas las anteriores y que ya incluye las especificaciones 802.3 ab, 802.3 ac y 802.3 ad.
– LACP (Link Aggregation Control Protocol)es un protocolo que puede ser implementado en switches cisco, puede agrupar puertos por su velocidad, modo dúplex, trocales, VLAN. Tiene dos modos de configuración:
• Activo: un puerto en este estado es capaz de iniciar negociaciones con otros puertos para establecer el grupo.
• Pasivo: un puerto en este estado es un puerto que no iniciará ningún tipo de negociación pero si responderá a las negociaciones generadas por otros puertos.
Dos puertos pasivos nunca podrán formar un grupo.
– Trunking (permita a múltiples redes compartir de forma transparente el mismo medio físico, sin problemas de interferencia entre ellas)
– Mejora independiente de la velocidad.
– Permite configurar múltiples enlace físicos como un único enlace lógico de mayor velocidad.
– Posibilidad casi sin límites de escalar en velocidad.
– Mayor uso en puntos de agregación de tráfico.
Se aprobó el nuevo estándar 10 Gigabit Ethernet o versión 802.3ae (Aumento magnitud: 10^3) desarrollada por el IEEE, contiene siete tipos de medios para LAN, MAN (se usa mucho para redes metropolitanas) y WAN(Wide Área Network), y los grandes centros de datos y de servidores, muy utilizado actualmente en las redes troncales. El mayor cambio en 10 Gigabit Ethernet es que se ha eliminado el protocolo de acceso al medio CSMA/CD (Carrier Sense Multiple Access with Collision Detection), ya que se implementa tan sólo en full-dúplex (la transmisión y recepción de datos se realizan por cables distintos para evitar colisiones), con el fin de no empeorar las longitudes de los segmentos en los que se utiliza este protocolo. Por otro lado, el medio físico empleado es, por lo general, la fibra óptica. Operación solo en modo Full- Duplex.
Permite la ampliación del campo de aplicación del Ethernet a redes WAN.
Se convierte en una alternativa simple, económica y eficiente para sustituir las redes SDH/SONET. (CARRIERS ETHERNET)
Esta versión de Ethernet es totalmente compatible y tiene el mismo formato de trama que el Gigabit Ethernet.
Se estandarizo PoE (Power over Ethernet) alimentación a través de Ethernet, se rige por un estándar internacional IEEE 802.3af, es una tecnología que incorpora alimentación eléctrica a una infraestructura LAN estándar. Permite que la alimentación eléctrica se suministre a un dispositivo de red (switch, punto de acceso, router, teléfono o cámara IP, etc) usando el mismo cable que se utiliza para la conexión de red. Elimina la necesidad de utilizar tomas de corriente en las ubicaciones del dispositivo alimentado y permite una aplicación más sencilla de los sistemas de alimentación ininterrumpida (SAI) para garantizar un funcionamiento.
– Suministra energía DC de forma limitada (aprox 15W a dispositivos conectados a al red).
– Útil en condiciones donde es difícil de suministrar energía a dispositivos como:
• Hubs Inalámbricos.
• Teléfonos IP.
• Sensores varios.
• Aplicaciones Industriales.
Ethernet la ultima milla (EFM) una tecnología de acceso que permite de forma simétrica, conexiones con un mayor ancho de banda a través de la líneas de cobre.
El EFM sobre Fibra (EFMF) está dirigido a la capa física para Ethernet con fibra punto a punto ofreciendo velocidades de 100 Mbps y varios Gbps, para una distancia de al menos 10 km sobre una fibra monomodo. Además, añade soporte tanto para una sola fibra como para una doble fibra. Soporta un gran ancho de banda simétrico y enlaces full-duplex punto a punto. Por último, EMFM implementa una nueva capa física, la
PMD. Esta capa especifica la calidad y el tipo del hardware necesario, incluyendo cables, conectores…
Es una solución económica y rápida.
Las líneas telefónicas proveen velocidades de:
• 2 Mbps – 10 Mbps dedicadas (full duplex).
• Basada en VDSL (Se trata de una tecnología de acceso a internet de Banda Ancha, que transmiten los impulsos sobre pares de cobre).
Fibra:
• 1 Gbps compartido entre 16-32 clientes.
• Basada en la topología desarrollada para Passive Optical Networks (PONs, redes ópticas pasivas), permiten eliminar todos los componentes activos existentes entre el servidor y el cliente introduciendo en su lugar componentes ópticos pasivos para guiar el tráfico por la red.
Ethernet 10 gigabit desarrollada por el IEE velocidad a 10 Gbps sobre par trenzado no blindado (UTP), corresponde a la versión 802.3an.
Un grupo de fabricantes quiere sobreponer trabajos en SONET (protocolo) y STM-256/OC-768 (especificación de velocidad) para crear un 40 Gigabit Ethernet, cuando muchos otros fabricantes creen que sería mejor mantener los múltiples de 10 para crear un 100 Gigabit Ethernet. Este 100 Gigabit Ethernet en fase de estandarización con el estándar IEEE 802.3ba.
Se aprobará el IEEE 802.3ba, desde el que se llevaba trabajando desde 2006 y cuyo primer borrador apareció a finales de 2008. Este estándar da un paso más en las velocidades de Ethernet, dando lugar a dos velocidades: 40 Gbps que estará destinada a las aplicaciones de centro de proceso de datos y servidores, y las de 100 Gbps para la interconexión en las redes troncales. De este modo, 40 Gigabit Ethernet y 100 Gigabit Ethernet incrementará aún más el actual mercado de Ethernet.
MEDIO FISICO:
Los elementos de una red Ethernet son: los nodos de red y el medio de interconexión. Los nodos de red pueden clasificarse en dos grandes grupos: Equipo Terminal de Datos (DTE) y Equipo de Comunicación de Datos (DCE).
Los DTE son dispositivos de red que generan o que son el destino de los datos: como las PCs, las estaciones de trabajo, los servidores de archivos, los servidores de impresión; todos son parte del grupo de las estaciones finales.
Los DCE son los dispositivos de red intermediarios que reciben y retransmiten las tramas dentro de la red; pueden ser: ruteadores, conmutadores (switch), concentradores (hub), repetidores o interfaces de comunicación, ej.: un módem o una tarjetade interface.
Dentro de los DCE podemos dividirlos en activo y pasivos. Los primeros generan y/o modifican señales, los segundos simplemente la transmiten. Son los siguientes:
Pasivos:
Activos:
Cable coaxial
Está compuesto de un hilo conductor central de cobre rodeado por una malla de hilos de cobre. El espacio entre el hilo y la malla lo ocupa un conducto de plástico que separa los dos conductores y mantiene las propiedades eléctricas. Todo el cable está cubierto por un aislamiento de protección para reducir las emisiones eléctricas.
Su mayor defecto es su grosor, el cual limita su utilización en pequeños conductos eléctricos y en ángulos muy agudos.
El cable coaxial consiste de un núcleo sólido de cobre rodeado por un aislante, una combinación de blindaje y alambre de tierra y alguna otra cubierta protectora.
Este tipo de medio fue el primero en utilizarse para Ethernet y puede ser de dos tipos:
· Thinnet: Grosor de 1/4" o menor, comúnmente utilizado en diseños
10Base2 para ambientes ARCnet. Distancia Máxima de 185 m, el cableado utilizado para Thinnet es por lo general tipo RG-58.
· Thicknet: Comúnmente conocido como “cable amarillo” utilizado para "backbones" su tamaño es de 3/8" (.375 pulgadas),utilizado en backbones de televisión y en diseños 10Base5, su distancia máxima entre centrales es de 500 mt.
El cable coaxial a diferencia del cableado Ethernet que comúnmente es utilizado hoy en día, utiliza conectores llamados "BNC" (British Naval Conectors), que es una "T" con orificios muy similares a los que son utilizados por un TV con cable.
Cable Empalmado "Twisted Pair"
El cable twisted pair son un par de cables trenzado que cuentan con un método de cableado en el que dos cables conductores se trenzan uno con el otro con el objetivo de cancelar campos de interferencia electromagnéticas y ruido proveniente de fuentes externas o de otros cables cercanos.
El cable de par entorchado tiene uno o más pares “abrazados” uno a otro (esto ayuda a cancelar polaridades e intensidades opuestas).
· Los hilos son referenciados con respecto a su grosor utilizando los números de American Wire Gauge
· Los alambres delgados tienen más resistencia que los gruesos.
Puede ser de dos tipos:
· UTP: Significa que el cable no tiene capa protectora, UTP puede extenderse a una distancia máxima de 100 metros, es utilizado primordialmente para Ethernet
· STP: Utiliza un capa protectora para cada cable para limitar interferencia, permite una mayor distancia que UTP (aunque limitadas), comúnmente utilizado en ARCnet o Redes IBM.
Este tipo de cableado es el que se encuentra en mayor uso y puede ser de categorias:
• Categoría 1: (UTP) Apto únicamente para voz, utilizado para transmisiones comunes de telefonía. Alambre sólido 22 ó 24 AWG: no se puede utilizar para transmisión de datos: 56 Kbps
• Categoría 2: (UTP) No es muy utilizado, su velocidad máxima de transmisión es 4 Mbps. Alambre sólido 22 ó 24 AWG para teléfonos y sistemas de alarmas: 1 MHz
• Categoría 3: (UTP o STP) Óptimo para transmisiones 10BaseT, velocidad máxima hasta 10 Mbps. Alambre sólido 24 AWG, 100 Ohmios, 16 MHz.
• Categoría 4: (UTP o STP) Velocidad máxima 16 Mbps, comúnmente utilizado en un ambiente Token Ring de IBM. Alambre sólido 24 AWG, 100 Ohmios, 20MHz.
• Categoría 5: (UTP o STP) Alcanza velocidades de 100 Mbps, utilizado para Fast Ethernet. Par trenzado de 22 ó 24 AWG, impedancia de 100 Ohmios, ancho de banda de 100 MHz (usa conector RJ45 -8P8C-). Atenuación inferior a 24 dB y Next superior 27.1 dB para 100 MHz.
• Categoría 5e (enhanced) puede transportar, de forma fiable, hasta 125 Mbps de tráfico, obtener 1000 Mbps de ancho de banda fue un desafío de diseño, el mismo ISO Clase D: Par trenzado 22 ó 24 AWG, ancho de banda 100 MHz. Atenuación 24 dB. Next 30.1 dB se utiliza en redes de ordenadores Gigabit Ethernet.
Fibra óptica
Transmite energía en forma de luz. Permite tener anchos de banda muy altos (billones de bits por segundo).
En los sistemas de cableado, la fibra óptica puede utilizarse tanto en el subsistema vertical como en el horizontal.
La luz no se escapa del núcleo porque la cubierta y el núcleo están hechos de diferentes tipos de vidrio (y por tanto tienen diferentes índices de refracción). Esta diferencia en los índices obliga a que la luz sea reflejada cuando toca la frontera entre el núcleo y la cubierta.
Existen dos tipos de fibra óptica:
MULTIMODO:
Usada generalmente para comunicación de datos. Tiene un núcleo grande (más fácil de acoplar). En este tipo de fibra muchos rayos de luz (ó modos) se pueden propagar simultáneamente. Cada modo sigue su propio camino. La máxima longitud recomendada del cable es de 2 Km.
Los fabricantes de fibra multimodo especifican cuánto afecta la dispersión modal a la señal estableciendo un producto ancho de banda-longitud (o ancho de banda).
› Una fibra de 200MHz-km puede llevar una señal a 200 MHz hasta un Km de distancia ó 100 MHz en 2 km.
La dispersión modal varía de acuerdo con la frecuencia de la luz utilizada. Se deben revisar las especificaciones del fabricante
› Un rango de ancho de banda muy utilizado en fibra multimodo para datos es 62.5/125 con 160 MHz-km en una longitud de onda de 850 nm.
MONOMODO:
Tiene un núcleo más pequeño que la fibra multimodo. En este tipo de fibra sólo un rayo de luz (ó modo) puede propagarse a la vez. Es utilizada especialmente para telefonía y televisión por cable. Permite transmitir a altas velocidades y a grandes distancias (40 km).
La fibra monomodo no tiene dispersión modal, por eso no se especifica el producto ancho de banda-longitud.
La perdida de potencia óptica, o atenuación, se expresa en dB/km (aunque la parte de “km” se asume y es dada sólo en dB)
› Cuantos más conectores se tengan, o más largo sea el cable de fibra, mayor perdida de potencia habrá.
› Si los conectores están mal empatados, o si están sucios, habrá más pérdida de potencia. (por eso se deben usar protectores en las puntas de fibra no utilizadas).
› Un certificador con una fuente de luz incoherente (un LED) muestra un valor de atenuación mayor que uno con luz de LASER (¡Gigabit utiliza LASER! Por eso la F.O. para gigabit debe certificarse con ese tipo de fuente de luz, no con el otro).
LOS NODOS: generalmente son computadores de propósito general (aunque los routers y switches utilizan hardware especial, los diferencia lo que hace el software).
Conmutador o Switch
Es un dispositivo digital lógico de interconexión de redes de computadoras que opera en la capa de enlace de datos del modelo OSI. Su función es interconectar dos o más segmentos de red, de manera similar a los puentes de red, pasando datos de un segmento a otro de acuerdo con la dirección MAC de destino de las tramas en la red.
Los conmutadores se utilizan cuando se desea conectar múltiples redes, fusionándolas en una sola. Al igual que los puentes, dado que funcionan como un filtro en la red, mejoran el rendimiento y la seguridad de las redes de área local.
Los conmutadores poseen la capacidad de aprender y almacenar las direcciones de red de la capa 2 (direcciones MAC) de los dispositivos alcanzables a través de cada uno de sus puertos. Por ejemplo, un equipo conectado directamente a un puerto de un conmutador provoca que el conmutador almacene su dirección MAC. Esto permite que, a diferencia de los concentradores, la información dirigida a un dispositivo vaya desde el puerto origen al puerto de destino.
En el caso de conectar dos conmutadores o un conmutador y un concentrador, cada conmutador aprenderá las direcciones MAC de los dispositivos accesibles por sus puertos, por lo tanto en el puerto de interconexión se almacenan las MAC de los dispositivos del otro conmutador.
Como anteriormente se comentaba, uno de los puntos críticos de estos equipos son los bucles, que consisten en habilitar dos caminos diferentes para llegar de un equipo a otro a través de un conjunto de conmutadores. Los bucles se producen porque los conmutadores que detectan que un dispositivo es accesible a través de dos puertos emiten la trama por ambos. Al llegar esta trama al conmutador siguiente, este vuelve a enviar la trama por los puertos que permiten alcanzar el equipo. Este proceso provoca que cada trama se multiplique de forma exponencial, llegando a producir las denominadas inundaciones de la red, provocando en consecuencia el fallo o caída de las comunicaciones.
Beneficios Clave
Ideales para las aplicaciones siguientes:
La diferencia principal entre los hubs y los switches se basa en la forma en que ellos distribuyen los paquetes a través de la red, lo cual afecta directamente los costos y la disponibilidad del ancho de banda. Esta diferencia se refleja en la siguiente figura:
Cuando utilizar un switch:
Tipos de Switch:
Store-and-Forward
Los conmutadores Store-and-Forward guardan cada trama en un búfer antes del intercambio de información hacia el puerto de salida. Mientras la trama está en el búfer, el switch calcula el CRC y mide el tamaño de la misma. Si el CRC falla, o el tamaño es muy pequeño o muy grande (un cuadro Ethernet tiene entre 64 bytes y 1518 bytes) la trama es descartada. Si todo se encuentra en orden es encaminada hacia el puerto de salida.
Este método asegura operaciones sin error y aumenta la confianza de la red. Pero el tiempo utilizado para guardar y chequear cada trama añade un tiempo de demora importante al procesamiento de las mismas. La demora o delay total es proporcional al tamaño de las tramas: cuanto mayor es la trama, más tiempo toma este proceso.
Cut-Through
Los conmutadores cut-through fueron diseñados para reducir esta latencia. Esos switches minimizan el delay leyendo sólo los 6 primeros bytes de datos de la trama, que contiene la dirección de destino MAC, e inmediatamente la encaminan.
El problema de este tipo de switch es que no detecta tramas corruptas causadas por colisiones (conocidos como runts), ni errores de CRC. Cuanto mayor sea el número de colisiones en la red, mayor será el ancho de banda que consume al encaminar tramas corruptas.
Existe un segundo tipo de switch cut-through, los denominados fragment free, fue proyectado para eliminar este problema. El switch siempre lee los primeros 64 bytes de cada trama, asegurando que tenga por lo menos el tamaño mínimo, y evitando el encaminamiento de runts por la red.
Adaptative Cut-Through
Son los conmutadores que procesan tramas en el modo adaptativo y son compatibles tanto con store-and-forward como con cut-through. Cualquiera de los modos puede ser activado por el administrador de la red, o el switch puede ser lo bastante inteligente como para escoger entre los dos métodos, basado en el número de tramas con error que pasan por los puertos.
Cuando el número de tramas corruptas alcanza un cierto nivel, el conmutador puede cambiar del modo cut-through a store-and-forward, volviendo al modo anterior cuando la red se normalice.
Los conmutadores cut-through son más utilizados en pequeños grupos de trabajo y pequeños departamentos. En esas aplicaciones es necesario un buen volumen de trabajo o throughput, ya que los errores potenciales de red quedan en el nivel del segmento, sin impactar la red corporativa.
Los conmutadores store-and-forward son utilizados en redes corporativas, donde es necesario un control de errores.
Atendiendo a la forma de segmentación de las subredes
Conmutadores de la capa 2
Son los conmutadores tradicionales, que funcionan como puentes multi-puertos. Su principal finalidad es dividir una LAN en múltiples dominios de colisión, o en los casos de las redes en anillo, segmentar la LAN en diversos anillos. Basan su decisión de envío en la dirección MAC destino que contiene cada trama.
Los conmutadores de la capa 2 posibilitan múltiples transmisiones simultáneas sin interferir en otras sub-redes. Los switches de capa 2 no consiguen, sin embargo, filtrar difusiones o broadcasts, multicasts (en el caso en que más de una sub-red contenga las estaciones pertenecientes al grupo multicast de destino), ni tramas cuyo destino aún no haya sido incluido en la tabla de direccionamiento.
Conmutadores de la capa 3
Son los conmutadores que, además de las funciones tradicionales de la capa 2, incorporan algunas funciones de enrutamiento o routing, como por ejemplo la determinación del camino basado en informaciones de capa de red (capa 3 del modelo OSI), validación de la integridad del cableado de la capa 3 por checksum y soporte a los protocolos de routing tradicionales (RIP, OSPF, etc)
Los conmutadores de capa 3 soportan también la definición de redes virtuales (VLAN), y según modelos posibilitan la comunicación entre las diversas VLAN sin la necesidad de utilizar un router externo.
Por permitir la unión de segmentos de diferentes dominios de difusión o broadcast, los switches de capa 3 son particularmente recomendados para la segmentación de redes LAN muy grandes, donde la simple utilización de switches de capa 2 provocaría una pérdida de rendimiento y eficiencia de la LAN, debido a la cantidad excesiva de broadcasts.
Se puede afirmar que la implementación típica de un switch de capa 3 es más escalable que un enrutador, pues éste último utiliza las técnicas de enrutamiento a nivel 3 y enrutamiento a nivel 2 como complementos, mientras que los switches sobreponen la función de enrutamiento encima del encaminamiento, aplicando el primero donde sea necesario.
Dentro de los conmutador de la capa 3 tenemos:
Básicamente, un conmutador paquete por paquete (packet by packet en inglés) es un caso especial de un conmutador Store-and-Forward pues, al igual que este, almacena y examina el paquete, calculando el CRC y decodificando la cabecera de la capa de red para definir su ruta a través del protocolo de enrutamiento adoptado.
Un conmutador de la capa 3 Cut-Through (no confundir con un conmutador Cut-Through), examina los primeros campos, determina la dirección de destino (a través de la información de los headers o cabeceras de capa 2 y 3) y, a partir de ese instante, establece una conexión punto a punto (a nivel 2) para conseguir una alta tasa de transferencia de paquetes.
Cada fabricante tiene su diseño propio para posibilitar la identificación correcta de los flujos de datos. Como ejemplo, tenemos el "IP Switching" de Ipsilon, el "SecureFast Virtual Networking de Cabletron", el "Fast IP" de 3Com.
El único proyecto adoptado como un estándar de hecho, implementado por diversos fabricantes, es el MPOA (Multi Protocol Over ATM). El MPOA, en desmedro de su comprobada eficiencia, es complejo y bastante caro de implementar, y limitado en cuanto a backbones ATM.
Además, un switch Layer 3 Cut-Through, a partir del momento en que la conexión punto a punto es establecida, podrá funcionar en el modo "Store-and-Forward" o "Cut-Through"
Conmutadores de la capa 4
Están en el mercado hace poco tiempo y hay una controversia en relación con la clasificación adecuada de estos equipos. Muchas veces son llamados de Layer 3+ (Layer 3 Plus).
Básicamente, incorporan a las funcionalidades de un conmutador de la capa 3; la habilidad de implementar la políticas y filtros a partir de informaciones de la capa 4 o superiores, como puertos TCP/UDP, SNMP, FTP, etc.
Hub
Son los más básicos bloques de construcción para la conexión de ordenadores, servidores, y dispositivos periféricos en una red. Se utilizan como repetidores o concentradores. En este caso son asignados a dispositivos en la red para que se comuniquen unos con otros, compartiendo información y recursos.
Son utilizados para conectar dos o más segmentos Ethernet de cualquier tipo de medio. A medida que los segmentos exceden su longitud máxima, la calidad de la señal comienza a deteriorarse. Los hubs proveen la amplificación de señal requerida para permitirle a un segmento extenderse a una distancia mayor. Toma cualquier señal entrante y la repite a todos los restantes puertos de salida.
Los hubs Ethernet trabajan necesariamente en topologías estrella tales como 10BASE-T y 100BASE-T. Hay parejas separadas para transmitir y recibir, pero que se utilizan en modo half duplex el cual se comporta todavía como un medio de enlaces compartidos. Un hub multi-puerto de par trenzado, permite que varias conexiones de segmentos “punto-a-punto” se reúnan en una red. Un extremo del vínculo “punto-a-punto” es conectado al hub y el otro es conectado al ordenador. Si el hub es conectado al backbone, entonces todos los ordenadores en los extremos de los segmentos de par trenzado pueden comunicarse con todos los “hosts” del backbone.
El número y tipo de hubs en cualquier dominio de colisión está limitado por las reglas de Ethernet. Un hecho muy importante a tener en cuenta acerca de los hubs es que ellos solamente permiten a los usuarios compartir Ethernet.
Los concentradores no logran dirigir el tráfico que llega a través de ellos, y cualquier paquete de entrada es transmitido a otro puerto (que no sea el puerto de entrada). Dado que cada paquete está siendo enviado a través de cualquier otro puerto, aparecen las colisiones de paquetes como resultado, que impiden en gran medida la fluidez del tráfico. Cuando dos dispositivos intentan comunicar simultáneamente, ocurrirá una colisión entre los paquetes transmitidos, que los dispositivos transmisores detectan. Al detectar esta colisión, los dispositivos dejan de transmitir y hacen una pausa antes de volver a enviar los paquetes.
La necesidad de host para poder detectar las colisiones limita el número de centros y el tamaño total de la red. Para 10 Mbit/s en redes, de hasta 5 segmentos (4 concentradores) se permite entre dos estaciones finales. Para 100 Mbit/s en redes, el límite se reduce a 3 segmentos (2 concentradores) entre dos estaciones finales, e incluso sólo en el caso de que los concentradores fueran de la variedad de baja demora. Algunos concentradores tienen puertos especiales (y, en general, específicos del fabricante) les permiten ser combinados de un modo que consiente encadenar a través de los cables Ethernet los concentradores más sencillos, pero aun así una gran red Fast Ethernet es probable que requiera conmutadores para evitar el encadenamiento de concentradores.
La mayoría de los concentradores detectan problemas típicos, como el exceso de colisiones en cada puerto. Así, un concentrador basado en Ethernet, generalmente es más robusto que el cable coaxial basado en Ethernet. Incluso si la partición no se realiza de forma automática, un concentrador de solución de problemas la hace más fácil ya que las luces puede indicar el posible problema de la fuente. Asimismo, elimina la necesidad de solucionar problemas de un cable muy grande con múltiples tomas.
Una red de hubs se la denomina como “shared Ethernet”, significando que todos los miembros de la red están habilitados para transmisión de datos sobre una red única (o dominio de colisión). Esto quiere decir que los miembros individuales de una red compartida obtendrán solo un porcentaje del ancho de banda total disponible. También se debe mencionar que los repetidores permiten a las redes extenderse más allá de las limitaciones normales de distancia, pero se encuentran aún limitados en el número de nodos que pueden ser soportados.
Usos
Históricamente, la razón principal para la compra de concentradores en lugar de los conmutadores era el precio. Esto ha sido eliminado en gran parte por las reducciones en el precio de los conmutadores, pero los concentradores aún pueden ser de utilidad en circunstancias especiales:
Cuando utilizar un hub:
Puente o Bridge
La función de un bridge (“puente”) es conectar redes separadas uniéndolas. Los bridges pueden conectar diferentes tipos de redes o redes del mismo tipo. Los bridges “mapean” las direcciones Ethernet de los nodos que residen en cada segmento de red y luego permiten pasar a través del “puente” solamente el tráfico necesario.
Cuando un paquete es recibido por el bridge, este determina los segmentos de origen y destino. Si estos segmentos coinciden, el paquete es descartado (“dropped” o “filtered”); si los segmentos son distintos, entonces el paquete es transferido al segmento correcto.
Adicionalmente, los bridges evitan que paquetes malos o dañados se distribuyan innecesariamente simplemente no re-transmitiéndolos. Los bridges son llamados dispositivos “store-and-forward” (almacena y envía) porque ellos examinan el contenido del paquete Ethernet completo antes de realizar las decisiones de filtrado o envío. El filtrado de paquetes y la regeneración de paquetes enviados permite a la tecnología de bridging partir una red en dominios de colisión separados. Esto permite mayores distancias y que más repetidores sean utilizados en el diseño total de la red.
La mayoría de los bridges son “self learning task bridges”, lo que quiere decir que ellos determinan la dirección Ethernet del usuario en el segmento construyendo una tabla a medida que los paquetes son pasados a través de la red. Esta capacidad de auto-aprender eleva dramáticamente la posibilidad de crear “loops” o caminos circulares en redes que poseen un gran número de bridges.
Dado que cada dispositivo aprende la configuración de la red, un camino en círculo o “loop” presenta información conflictiva sobre en cual segmento está localizada una dirección específica y fuerza entonces al dispositivo a enviar todo el tráfico. El algoritmo de “Spanning Tree” es un estándar de software (puede encontrárselo dentro de la especificación IEEE 802.1d) que describe como switches y bridges pueden comunicarse para evitar caminos circulares o “loops” en las redes.
Para clasificar los bridges, atenderemos a dos aspectos: los tipos de interfaz y la localización geográfica de las LAN que se van a interconectar.
Según el interfaz
Según la localización geográfica
Ventajas
Desventajas
Repetidores
Los repetidores se emplean para conectar dos o más segmentos Ethernet de cualquier tipo de medio físico. Según los segmentos exceden el máximo número de nodos o la longitud máxima, la calidad de las señales empieza a deteriorarse. Los repetidores proporcionan la amplificación y resincronización de las señales necesarias para conectar los segmentos. Al partir un segmento en dos o más subsegmentos, permitimos a la red continuar creciendo. Una conexión de repetidor cuenta en el límite del número total de nodos de cada segmento. Por ejemplo, un segmento de cable coaxial fino puede tener 185 metros de longitud y hasta 29 nodos o estaciones y un repetidor, ya que el número total de nodos es de 30 por segmento. Un segmento de cable coaxial grueso puede tener 500 metros, 98 nodos y 2 repetidores (para un total de 100 nodos por segmento).
Los repetidores Ethernet son necesarios en las topologías de estrella. Como hemos indicado, una red con sólo dos nodos está limitada. Un repetidor de par trenzado permite a diversos segmentos "punto a punto" unirse en una sola red. Un extremo del enlace punto a punto se conecta al repetidor y el otro al ordenador con un transceptor. Si el repetidor está conectado al troncal, entonces todos los ordenadores conectados en los extremos de los segmentos de par trenzado pueden comunicar con todos los servidores del troncal.
Los repetidores también monitorizan todos los segmentos conectados para verificar que la red funciona correctamente. Cuando algo falla en un determinado segmento, por ejemplo se produce una rotura, todos los segmentos Ethernet puede quedar inoperantes. Los repetidores limitan el efecto de estos problemas, a la sección de cable rota, "segmentando" la red, desconectando el segmento problemático y permitiendo al resto seguir funcionando correctamente. La avería de un segmento en una red punto a punto, habitualmente, sólo desactivará un ordenador, lo que en una topología de bus ocasionaría la desactivación de todos los nodos del segmento.
Al igual que los diferentes medios de Ethernet tienen diferentes limitaciones, los grandes segmentos creados con repetidores y múltiples segmentos, también tienen restricciones. Estas restricciones, generalmente tienen que ver con los requisitos de sincronización. A pesar de que las señales eléctricas que circulan por los medios Ethernet, viajan a cerca de la velocidad de la luz, aún requieren un tiempo finito para viajar de un extremo de una gran red a otro. Las normas Ethernet asumen que no va a llevar más de un determinado tiempo para que una señal sea propagada entre los extremos más alejados de la red. Si la red es excesivamente grande, esta presunción no se cumple, y la red no funcionará correctamente. Los problemas de sincronización no pueden ser tomados a la ligera. Cuando las normas Ethernet son violadas, se pierden los paquetes, las prestaciones de la red se ven afectadas, y las aplicaciones se enlentecen y pueden fallar.
Las especificaciones IEEE 802.3 describen las reglas para el número máximo de repetidores que pueden ser usados en una configuración. El número máximo de repetidores que pueden encontrarse en el camino de transmisión entre dos nodos es de cuatro; el máximo número de segmentos de red entre dos nodos es cinco, con la restricción adicional de que no más de tres de esos cinco segmentos pueden tener otras estaciones de red conectadas a ellos (los otros segmentos deben de ser enlaces entre repetidores, que simplemente conectan repetidores). Estas reglas son determinadas por cálculos de las máximas longitudes de cables y retardos de repetidores. Las redes que las incumplen puede que aún funcionen, pero están sujetas a fallos esporádicos o problemas frecuentes de naturaleza indeterminada. Además, usando repetidores, simplemente extendemos la red a un tamaño mayor. Cuando esto ocurre, el ancho de banda de la red puede resultar un problema; en este caso, los puentes, conmutadores y encaminadores pueden usarse para particionar una gran red en segmentos más pequeños que operan más eficazmente.
Router
Un router o para algunos que utilizan el término enrutador, según el gusto del usuario, viene a ser un dispositivo de hardware que permite la interconexión de red entre ordenadores que opera en la capa tres.
Dicho de otra forma más sencilla, un router o enrutador es un dispositivo que asegura el enrutamiento de paquetes entre redes, o bien determinar la ruta exacta que debería tomar el paquete de datos que intercambiamos.
Por este motivo, los denominados como protocolos de enrutamiento son aquellos que utilizan los routers para comunicarse entre sí, y de esta forma, para permitir el compartimiento de la información, tomando por ende la decisión de cual es la ruta más adecuada en cada momento para enviar un paquete y así disfrutemos de la velocidad de internet con total confianza.
Además, algo que todos deberíamos de saber para conocer mejor su funcionamiento, los router trabajan en dos tipos de planos bien distintos: el plano de control, y el plano de reenvío o también llamado plano de datos.
Tipos de router
Aunque son muchos usuarios los que lo desconocen, en la actualidad existen distintos tipos de router que pueden utilizarse para muy diversas cuestiones. Hay routers que se encargan de proporcionar conectividad dentro de las empresas, entre Internet y las propias empresas en sí, o bien en el interior los ISP en nuestra casa.
Los encaminadores se utilizan con frecuencia en los hogares para conectar a un servicio de banda ancha, tales como IP sobre cable o ADSL. Un encaminador usado en una casa puede permitir la conectividad a una empresa a través de una red privada virtual segura.
Si bien son funcionalmente similares a los encaminadores, los encaminadores residenciales usan traducción de dirección de red en lugar de direccionamiento.
En lugar de conectar ordenadores locales a la red directamente, un encaminador residencial debe hacer que los ordenadores locales parezcan ser un solo equipo.
En las empresas se pueden encontrar encaminadores de todos los tamaños. Si bien los más poderosos tienden a ser encontrados en ISPs, instalaciones académicas y de investigación, pero también en grandes empresas.
El modelo de tres capas es de uso común, no todos de ellos necesitan estar presentes en otras redes más pequeñas.
Una captura de pantalla de la interfaz web de LuCI OpenWrt.
Los encaminadores de acceso, incluyendo SOHO, se encuentran en sitios de clientes como sucursales que no necesitan de enrutamiento jerárquico de los propios. Normalmente, son optimizados para un bajo costo.
Los encaminadores de distribución agregan tráfico desde encaminadores de acceso múltiple, ya sea en el mismo lugar, o de la obtención de los flujos de datos procedentes de múltiples sitios a la ubicación de una importante empresa. Los encaminadores de distribución son a menudo responsables de la aplicación de la calidad del servicio a través de una WAN, por lo que deben tener una memoria considerable, múltiples interfaces WAN, y transformación sustancial de inteligencia.
También pueden proporcionar conectividad a los grupos de servidores o redes externas.En la última solicitud, el sistema de funcionamiento del encaminador debe ser cuidadoso como parte de la seguridad de la arquitectura global. Separado del encaminador puede estar un cortafuegos o VPN concentrador, o el encaminador puede incluir estas y otras funciones de seguridad.Cuando una empresa se basa principalmente en un campus, podría no haber una clara distribución de nivel, que no sea tal vez el acceso fuera del campus.
En tales casos, los encaminadores de acceso, conectados a una red de área local (LAN), se interconectan a través del Core routers.
En las empresas, el core routers puede proporcionar una "columna vertebral" interconectando la distribución de los niveles de los encaminadores de múltiples edificios de un campus, o a las grandes empresas locales.Tienden a ser optimizados para ancho de banda alto.
Cuando una empresa está ampliamente distribuida sin ubicación central, la función del core router puede ser asumido por el servicio de WAN al que se suscribe la empresa, y la distribución de encaminadores se convierte en el nivel más alto.
Los encaminadores de borde enlazan sistemas autónomos con las redes troncales de Internet u otros sistemas autónomos, tienen que estar preparados para manejar el protocolo BGP y si quieren recibir las rutas BGP, deben poseer una gran cantidad de memoria.
A pesar de que tradicionalmente los encaminadores solían tratar con redes fijas (Ethernet, ADSL, RDSI...), en los últimos tiempos han comenzado a aparecer encaminadores que permiten realizar una interfaz entre redes fijas y móviles (WiFi, GPRS, Edge, UMTS, WiMAX...) Un encaminador inalámbrico comparte el mismo principio que un encaminador tradicional. La diferencia es que éste permite la conexión de dispositivos inalámbricos a las redes a las que el encaminador está conectado mediante conexiones por cable. La diferencia existente entre este tipo de encaminadores viene dada por la potencia que alcanzan, las frecuencias y los protocolos en los que trabajan.
En Wi-Fi estas distintas diferencias se dan en las denominaciones como clase a/b/g/ y n.
Tarjeta de red
Las tarjetas de red (también denominadas adaptadores de red, tarjetas de interfaz de red o NIC) actúan como la interfaz entre un ordenador y el cable de red. La función de la tarjeta de red es la de preparar, enviar y controlar los datos en la red.
Por lo general, una tarjeta de red posee dos luces indicadoras (LED):
• La luz verde corresponde a la alimentación eléctrica;
• La luz naranja (10 Mb/s) o roja (100 Mb/s) indica actividad en la red (envío o recepción de datos). Para preparar los datos que se deben enviar, la tarjeta de red utiliza un transceptor, que transforma a su vez los datos paralelos en datos en serie. Cada tarjeta posee una dirección única denominada dirección MAC, asignada por el fabricante de la tarjeta, lo que la diferencia de las demás tarjetas de red del mundo.
Las tarjetas de red presentan configuraciones que pueden modificarse. Algunas de estas son: los interruptores de hardware (IRQ) la dirección de E/S y la dirección de memoria (DMA).
Para asegurar la compatibilidad entre el ordenador y la red, la tarjeta debe poder adaptarse a la arquitectura del bus de datos del ordenador y debe poseer un tipo de conexión adecuado al cable. Cada tarjeta está diseñada para funcionar con un tipo de cable específico. Algunas tarjetas incluyen conectores de interfaz múltiples (que se pueden configurar con caballetes, conmutadores DIP o software). Los conectores utilizados con más frecuencia son los RJ-45. Nota: Algunas topologías de red patentadas que utilizan cables de par trenzado suelen recurrir a conectores RJ-11. En algunos casos, estas topologías se denominan "pre-10BaseT".
Por último, para asegurar la compatibilidad entre el ordenador y la red, la tarjeta debe ser compatible con la estructura interna del ordenador (arquitectura de bus de datos) y debe tener el tipo de conector adecuado para el cable que se está utilizando.
¿Cuál es el rol de una tarjeta de red?
Una tarjeta de red es la interfaz física entre el ordenador y el cable. Convierte los datos enviados por el ordenador a un formato que puede ser utilizado por el cable de red, transfiere los datos a otro ordenador y controla a su vez el flujo de datos entre el ordenador y el cable. También traduce los datos que ingresan por el cable a bytes para que el CPU del ordenador pueda leerlos. De esta manera, la tarjeta de red es una tarjeta de expansión que se inserta a su vez en la ranura de expansión.
Preparación de datos
Las rutas que toman los datos en un ordenador se denominan "buses". Muchas rutas simultáneas hacen que los datos se desplacen en paralelo y no en forma serial (uno después del otro).
• Los primeros buses transportaban 8 bits por vez.
• El ordenador IBM PC/AT introdujo el primer bus de 16 bits.
• Actualmente, la mayoría de los buses son de 32 bits. Sin embargo, los datos viajan en cables en series (sólo un canal) y se mueven en un solo sentido. El ordenador puede enviar O recibir datos, pero no puede efectuar ambas operaciones en forma simultánea. De esta manera, la tarjeta de red reestructura un grupo de datos que llega en paralelo y los convierte en una secuencia de datos en serie (1 bit).
Es por esta razón que se transforman las señales digitales en señales eléctricas u ópticas capaces de viajar por los cables de red. El dispositivo encargado de esta transformación se denomina transceptor.
El rol del identificador
• La tarjeta convierte datos e indica su dirección al resto de la red para que pueda distinguirse de las otras tarjetas de red.
• Direcciones MAC: definidas por el IEEE (Instituto de Ingenieros en Electricidad y Electrónica), que asigna intervalos de direcciones para cada fabricante de tarjetas de redes.
• Están inscriptas en los chips de las tarjetas; cada tarjeta posee una dirección MAC que le es propia y, por lo tanto, única en la red.
Otras funciones de las tarjetas de red
El ordenador y la tarjeta deben comunicarse entre sí para que puedan proceder al intercambio de información. De esta manera, el ordenador asigna parte de su memoria a las tarjetas que tienen DMA (Acceso directo a la memoria).
La interfaz de la tarjeta indica que otro ordenador está solicitando datos del ordenador. El bus del ordenador transfiere los datos de la memoria del ordenador a la tarjeta de red.
Si los datos se desplazan demasiado rápido como para que el adaptador proceda a su procesamiento, se colocan en la memoria del búfer de la tarjeta (RAM), donde se almacenan temporalmente mientras se siguen enviando y recibiendo los datos.
Envío y control de los datos
Antes de que la tarjeta de red que envía los datos los transmita, dialoga electrónicamente con la tarjeta de recepción con el objetivo de solucionar los siguientes temas:
• Tamaño máximo de los bloques que se enviarán
• Cantidad de datos a enviar antes de enviar la confirmación
• Intervalos entre transmisiones de datos parciales
• Período de espera antes de enviar la confirmación
• Cantidad de datos que cada tarjeta puede contener antes de verse desbordada
• Velocidad de la transmisión de datos Si una tarjeta más reciente y avanzada se comunica con una más lenta, se verán obligadas a compartir la misma velocidad de transmisión. Algunas tarjetas poseen circuitos que le permiten ajustarse a las velocidades de transmisión de cartas más lentas.
Existe entonces una aceptación y un ajuste de las configuraciones propias a cada una, antes de que se puedan enviar y recibir los datos.
Parámetros de configuración de la tarjeta
Las tarjetas de red presentan opciones de configuración: Entre ellas:
• Interrupción (IRQ): en la mayoría de los casos, las tarjetas de red utilizan las IRQ 3 y 5. Se recomienda utilizar la IRQ 5 (si está disponible); la mayoría de las tarjetas la utilizan de manera predeterminada.
• Dirección base de entrada/salida (E/S): cada dispositivo debe tener una dirección diferente para el puerto correspondiente.
• Dirección de memoria: designa la ubicación de la memoria RAM en el ordenador. La tarjeta de red utiliza esta ranura como búfer la información que entra y sale. Esta configuración puede denominarse Dirección de inicio de RAM. Por lo general, la dirección de la memoria de la tarjeta es D8000. En algunas tarjetas se suele omitir el último 0. Se debe tener cuidado de no elegir de no elegir una dirección que ya esté siendo utilizada por otro dispositivo. Sin embargo, debe tenerse en cuenta que, en ocasiones, algunas tarjetas de red no poseen una dirección de memoria configurable porque no usan las direcciones de la memoria RAM del equipo.
• El transceptor
Transceptores
Para conectar nodos a los diversos medios físicos Ethernet se usan transceptores. La mayoría de los ordenadores y tarjetas de interfaz de red incorporan, en su electrónica, un transceptor 10BASE-T o 10BASE2, permitiéndoles ser conectados directamente a Ethernet sin requerir un transceptor externo. Otros dispositivos compatibles Ethernet, más viejos, incorporan un conector AUI para permitir al usuario conectarlo a cualquier medio físico, a través de un transceptor externo. El conector AUI consiste en un conector de tipo DB de 15 pines, hembra en el lado del ordenador, macho en el lado del transceptor. Los cables coaxiales gruesos (10BASE5) también usan transceptores para permitir las conexiones.
Para las redes Fast Ethernet, se desarrolló una interfaz llamada MII (Media Independent Interface o interfaz independiente de medios) para ofrecer un modo flexible de soportar medios de 100 Mbps. MII es un modo popular de conectar enlaces 100BASE-FX a los dispositivos Fast Ethernet basados en cobre.
Los protocolos de red son normas que permiten a los ordenadores comunicarse. Un protocolo define la forma en que los ordenadores deben identificarse entre si en una red, la forma en que los datos deben transitar por la red, y cómo esta información debe procesarse una vez que alcanza su destino final. Los protocolos también definen procedimientos para gestionar transmisiones o "paquetes" perdidos o dañados. IPX (para Novell NetWare), TCP/IP (para UNIX, WindowsNT, Windows 95/98 y otras plataformas), DECnet (para conectar una red de ordenadores Digital), AppleTalk (para los ordenadores Macintosh), y NetBIOS/NetBEUI (para redes LAN Manager y WindowsNT) son algunos de los protocolos más populares en la actualidad.
Aunque cada protocolo de la red es diferente, todos pueden compartir el mismo cableado físico. Este concepto es conocido como "independencia de protocolos," lo que significa que dispositivos que son compatibles en las capas de los niveles físico y de datos permiten al usuario ejecutar muchos protocolosdiferentes sobre el mismo medio físico.
PROTOCOLO CSMA/CD
Definición de CSMA/CD
CSMA/CD son siglas que corresponden a las siglas Carrier Sense Multiple Access with Collision Detection, que corresponden a Acceso Múltiple por Detección de Portadora con Detección de Colisiones, es una técnica usada en las redes para mejorar las prestaciones. Antes de usar estas técnicas se usaron las de Aloha puro y Aloha ranurado, pero ambas tenían muy bajas prestaciones. Por esto, primero se creó el CSMA, luego se mejoró y surgió el CSMA/CD.
La meta de este protocolo es de evitar al máximo las colisiones. La diferencia principal con el protocolo de AlohaNet es que todos los equipos escuchan el medio y se detectan las colisiones.
A continuación se presenta un esquema del protocolo CSMA, que es muy parecido al de AlohaNet:
Funcionamiento
Su funcionamiento es:
1. Una estación que tiene un mensaje para enviar escucha al medio para ver si otra estación está transmitiendo un mensaje.
2. Si el medio esta tranquilo (ninguna otra estación esta transmitiendo), se envía la transmisión y se espera el ACK (acuse de recibo). La estación que recibe comprueba el CRC (detección de errores) y si es correcto envía el ACK. Si tras un tiempo no ha sido recibido el ACK, se pasa al paso 1. Si se recibe, la operación ha sido un éxito.
3. Cuando dos o más estaciones tienen mensajes para enviar, es posible que transmitan casi en el mismo instante, resultando en una colisión en la red.
4. Cuando se produce una colisión, todas las estaciones receptoras ignoran la transmisión confusa.
5. Si un dispositivo de transmisión detecta una colisión, envía una señal de expansión para notificar a todos los dispositivos conectados que ha ocurrido una colisión.
6. Las estaciones transmisoras detienen sus transmisiones tan pronto como detectan la colisión.
7. Cada una de las estaciones transmisoras espera un periodo de tiempo aleatorio e intenta transmitir otra vez.
En redes inalámbricas, resulta a veces complicado llevar a cabo el primer paso. Por este motivo, surgen dos problemas, que son los que siguen:
1. Problema del nodo oculto: la estación cree que el medio está libre cuando en realidad no lo está, pues está siendo utilizado por otro nodo al que la estación no "oye".
2. Problema del nodo expuesto: la estación cree que el medio está ocupado, cuando en realidad lo está ocupando otro nodo que no interferiría en su transmisión a otro destino.
Para resolver estos problemas se propone MACA que significa: Evasión de Colisión por Acceso Múltiple.
A continuación se muestra el funcionamiento mediante dos figuras.
Las figuras 1 y 2 muestran los dos posibles estados de transmisión de datos de Ethernet. Si el medio está ocupado, el intento de transmisión será diferido hasta que éste se desocupe. Si el medio está ocioso, entonces el intento de transmisión puede realizarse inmediatamente, como se muestra en la figura 1.
Si otros nodos intentan transmitir al mismo tiempo, se produce una colisión. El medio es agolpado durante el tiempo Jam para alertar a todas las estaciones que ha ocurrido una colisión. Las estaciones que colisionan entran a Backoff para que su reintento de transmisión sea planeado. Esto se muestra en la figura 2.
Detección de portadora y Detección de colisiones
La detección de portadora es utilizada para escuchar al medio para ver si se encuentra libre. Si la portadora se encuentra libre, los datos son pasados a la capa física para su transmisión. Si la portadora está ocupada, se monitorea hasta que se libere.
Tras la transmisión, continúa el monitoreo del medio de transmisión. Cuando dos señales colisionan, sus mensajes se mezclan y se vuelven ilegibles. cuando esto ocurre, las estaciones afectadas detienen su transmisión y envían una señal de expansión, asegura que todas las demás estaciones de la red se enteren de que ha ocurrido una colisión.
Cada segmento de una red Ethernet, entre dos router, bridges o switches, constituye lo que se denomina dominio de tiempo de colisiones o dominio de colisiones Ethernet.
Se supone que cada bit permanece en el dominio un tiempo máximo de 25.6 µs, lo que significa que en este tiempo debe haber llegado al final del segmento.
Si en este tiempo la señal no ha salido del segmento, puede ocurrir que una segunda estación en la parte del segmento aún no alcanzado por la señal, pueda comenzar a transmitir, puesto que su detección de portadora indica que la línea está libre, dado que la primera señal aún no ha alcanzado a la segunda estación. En este caso ocurre un acceso múltiple MA y la colisión entre ambos es inevitable.
Los síntomas de una colisión dependen del medio de transmisión utilizado. En el caso de cable coaxial, la señal del cable contiene estados intermedios. La interferencia produce en algunos puntos un debilitamiento de la señal mientras que en otros se produce un reforzamiento; esta condición de sobretensión es detectada por los nodos. En cambio, cuando se utiliza cable de par trenzado, el síntoma es que existe señal en el par TX mientras que simultáneamente se recibe también señal por el par RX.
Estos estados en que la calidad de la señal no es adecuada, son detectados como errores SQEs ("Signal Quality Errors"), y el dispositivo emisor envía un mensaje de error.
Tipos de CSMA/CD
En función de cómo actúe la estación, el método CSMA/CD se puede clasificar en:
- CSMA no-persistente: si el canal está ocupado espera un tiempo aleatorio y vuelve a escuchar. Si detecta el canal libre, emite.
- CSMA 1-persistente: con el canal ocupado, la estación pasa a escuchar constantemente el canal sin esperar ningún tiempo. Cuando lo detecta libre emite. Podría ocurrir que emitiera otra estación durante un retardo de propagación o latencia de la red posterior a la emisión de la trama, produciéndose una colisión.
- CSMA p-persistente: después de encontrar el canal ocupado y quedarse escuchando hasta encontrarlo libre, la estación decide si emite. Para ello ejecuta un algoritmo o programa que dará orden de transmitir con una probabilidad p, o de permanecer a la espera. Si no transmitiera, en la siguiente ranura o división de tiempo volvería a ejecutar el mismo algoritmo hasta transmitir. Así se reduce el número de colisiones.
Errores más comunes
Los tipos de errores que se pueden dar en Ethernet son los siguientes:
- “runt”: definidos antes de que expire la ranura temporal (slot). Suelen deberse a colisiones “legales” (se consideran ilegales las colisiones producidas fuera del slot, que indican una red fuera de parámetros). Las colisiones pueden ser locales (detectables por señales con voltajes duplicados o detección de señal en la recepción simultáneamente a la transmisión) o remotas (detectables porque la trama es inferior a la ranura, y son debidas a colisiones producidas más allá de un repetidor).
- Trama larga, jabber: Transmisión excesiva o ilegalmente larga.
- Error de FCS: Transmisión dañada.
- Error de alineamiento: Número insuficiente o excesivo de bits transmitidos (no son un múltiplo de 8).
- Error de intervalo o de rango: El número real y el informado de octetos en una trama no concuerda.
- Fantasma: Preámbulo inusualmente largo o evento de congestión. Es un ruido mal apantallado que parece trama.
AUTONEGOCIACIÓN
En Ethernet 10 Mbps cada estación emite un pulso cada 16 ms si no se está transmitiendo, denominado NLP. En Fast-Ethernet se transmiten ráfagas de varios NLPs, denominadas FLP. La autonegociación se establece emitiendo ráfagas al nivel superior e intentando enlazar a las mayores prestaciones posibles (full-duplex y Gigabit Ethernet). Si no es posible se va probando a prestaciones inferiores. Aunque es preferible configurar las NIC en modo autonegociación, es posible forzarlas para que operen a unos valores determinados. En este caso es importante forzar todas las tarjetas de la red para que operen con los mismos parámetros.
Protocolo tcp/ip:
En primer lugar vamos a empezar definiendo lo que es un protocolo, un protocolo no es mas que un conjunto de reglas establecidas entre dos dispositivos para permitir la comunicación entre ambos, en concreto los protocolos TCP/IP es un protocolo DARPA que permite la transmisión confiable de paquetes de datos mediante redes.
Este protocolo fue desarrollado por el departamento de defensa de los Estados Unidos, ejecutándolo por primera vez en 1972 en el ARPANET una red de área extensa del departamento de defensa.
En concreto, TCP/IP es un conjunto de protocolos, la sigla TCP/IP significa "Protocolo de control de transmisión/Protocolo de Internet" y se pronuncia "T-C-P-I-P". Proviene de los nombres de dos protocolos importantes del conjunto de protocolos, es decir, del protocolo TCP y del protocolo, en concreto, TCP se encarga de contabilizar las transmisión de datos entre computadores y registrar si hay o no errores, mientas que IP realiza la transferencia de datos, todos juntos llegan a ser más de 100 protocolos diferentes definidos en este conjunto.
Se considera la base del Internet ya que representa todas las reglas de comunicación para ello y se basa en la idea de brindar una dirección IP a cada equipo de la red para poder enrutar paquetes de datos.
Es utilizado para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, mini computadoras, Mac`s y servidores de redes de área local y área extensa ya que no dependen del sistema operativo ni del computador, sino que cualquiera puede desarrollar productos que se ajusten a las especificaciones de TCP/IP.
Además también tiene otro tipo de características que caben destacar:
Buena recuperación de los fallos
Habilidad de añadir redes sin interrumpir los servicios ya existentes.
Manejo de alto porcentaje de errores
Bajos gastos indirectos de información
Como hemos nombrado anteriormente el origen de TCP/IP fue diseñado por propósitos relacionados al Departamento de Defensa de Estados Unidos, debido a esto lo que ahora hemos nombrado como características antes eran requisitos de diseño, la idea de “una buena recuperación de los fallos” fue que si una parte de la red fuera dañada durante un ataque, las piezas de red restantes deben seguir funcionando adecuadamente; lo mismo para la capacidad de añadir nuevas redes sin interrupción a los servicios ya existentes. La habilidad de manejar gran porcentaje de errores fue implantado para que si un paquete de información se pierde al recorrer una ruta habría un mecanismo que asegura que este llegará a su destino mediante otra ruta y por último la razón por la cual TCP/IP es tan eficiente son sus gastos indirectos bajos. Esto no tiene una contraparte en su simplicidad y rapidez.
Para poder aplicar el modelo TCP/IP en cualquier equipo, es decir, independientemente del sistema operativo, el sistema de protocolos TCP/IP se ha dividido en diversos módulos. Cada uno de éstos realiza una tarea específica. Además, estos módulos realizan sus tareas uno después del otro en un orden específico. Ésta es la razón por la cual se habla de modelo de capas.
El término capa se utiliza para reflejar el hecho de que los datos que viajan por la red atraviesan distintos niveles de protocolos. Durante una transmisión, los datos cruzan cada una de las capas en el nivel del equipo remitente. En cada capa, se le agrega información al paquete de datos. Esto se llama encabezado, es decir, una recopilación de información que garantiza la transmisión. En el nivel del equipo receptor, cuando se atraviesa cada capa, el encabezado se lee y después se elimina. Entonces, cuando se recibe, el mensaje se encuentra en su estado original.
En cada nivel, el paquete de datos cambia su aspecto porque se le agrega un encabezado. Por lo tanto, las designaciones cambian según las capas:
• el paquete de datos se denomina mensaje en el nivel de la capa de aplicación;
• el mensaje después se encapsula en forma de segmento en la capa de transporte;
• una vez que se encapsula el segmento en la capa de Internet, toma el nombre de datagrama;
• finalmente, se habla de trama en el nivel de capa de acceso a la red.
El objetivo de un sistema en capas es dividir el problema en diferentes partes (las capas), de acuerdo con su nivel de abstracción.
Cada capa del modelo se comunica con un nivel adyacente (superior o inferior). Por lo tanto, cada capa utiliza los servicios de las capas inferiores y se los proporciona a la capa superior.
Pensemos en los módulos del software de protocolos como una pila vertical constituida por capas. Cada capa tiene la responsabilidad de manejar una parte del problema.
Una vez que se toma la decisión de subdividir los problemas de comunicación en cuatro subproblemas y organizar el software de protocolo en módulos, de manera que cada uno maneja un problema, debemos plantearnos qué tipo de funciones debemos instalar en cada módulo, esta pregunta sería difícil de responder por varias razones. En primer lugar, un grupo de objetivos y condiciones determinan un problema de comunicación en particular, es posible elegir una organización que optimice un software de protocolos para ese problema. Segundo, incluso cuando se consideran los servicios generales al nivel de red, como un transporte confiable es posible seleccionar entre distintas maneras de resolver el problema. Tercero, el diseño de una arquitectura de red y la organización del software de protocolo esta interrelacionado; no se puede diseñar a uno sin considera al otro.
Descripción de las capas según orden de menor a mayor:
* CAPA DE ACCESO A LA RED:
Es la primera capa de la pila TCP/IP. consta de una capa de interfaz de red responsable de aceptar los datagramas IP y transmitirlos hacia una red específica, ofrece la capacidad de acceder a cualquier red física, es decir, brinda los recursos que se deben implementar para transmitir datos a través de la red.
Por lo tanto, la capa de acceso a la red contiene especificaciones relacionadas con la transmisión de datos por una red física, cuando es una red de área local, como es nuestro caso con Ethernet, conectada mediante línea telefónica u otro tipo de conexión a una red. Trata los siguientes conceptos:
• enrutamiento de datos por la conexión;
• coordinación de la transmisión de datos (sincronización);
• formato de datos;
• conversión de señal (análoga/digital);
• detección de errores a su llegada.
• Etcétera.
Afortunadamente, todas estas especificaciones son invisibles al ojo del usuario, ya que en realidad es el sistema operativo el que realiza estas tareas, mientras los drivers de hardware permiten la conexión a la red (por ejemplo, el driver de la tarjeta de red).
* LA CAPA DE INTERNET:
La capa de Internet es la capa "más importante" (si bien todas son importantes a su manera), ya que es la que define los datagramas y administra las nociones de direcciones IP. Esta maneja la comunicación de una máquina a otra, acepta una solicitud para enviar un paquete desde la capa de transporte, junto con una identificación de la máquina, hacia la que se debe enviar el paquete. La capa Internet también maneja la entrada de datagramas, verifica su validez y utiliza un algoritmo de ruteo para decidir si el datagrama debe procesarse de manera local o debe ser transmitido. Para el caso de los datagramas direccionados hacia la máquina local, el software de la capa de red de redes borra el encabezado del datagrama y selecciona, de entre varios protocolos de transporte, un protocolo con el que manejará el paquete. Por último, envía los mensajes ICMP de error y control necesarios y maneja todos los mensajes ICMP entrantes.
Permite el enrutamiento de datagramas (paquetes de datos) a equipos remotos junto con la administración de su división y ensamblaje cuando se reciben.
La capa de Internet contiene 5 protocolos:
• el protocolo IP;
• el protocolo ARP;
• el protocolo ICMP;
• el protocolo RARP;
• el protocolo IGMP.
Entre los que caben destacar los tres primeros.
**protocolo IP**
Su significado es Protocolo de Internet, de ahí sus siglas (IP), es un protocolo no orientado a conexión, usado tanto por el origen como por el destino para la comunicación de datos, a través de una red de paquetes conmutados no fiable y de mejor entrega posible sin garantías, además no corrige ni detecta errores en la información.
Los datos en una red basada en IP son enviados en bloques conocidos como paquetes o datagramas. En particular, en IP no se necesita ninguna configuración antes de que un equipo intente enviar paquetes a otro con el que no se había comunicado antes.
IP provee un servicio de datagramas no fiable (también llamado del mejor esfuerzo (best effort), lo hará lo mejor posible pero garantizando poco). IP no provee ningún mecanismo para determinar si un paquete alcanza o no su destino y únicamente proporciona seguridad de sus cabeceras y no de los datos transmitidos. Por ejemplo, al no garantizar nada sobre la recepción del paquete, éste podría llegar dañado, en otro orden con respecto a otros paquetes, duplicado o simplemente no llegar. Si se necesita fiabilidad, ésta es proporcionada por los protocolos de la capa de transporte.
Si la información a transmitir, es decir, los datagramas a transmitir supera el tamaño máximo "negociado" (MTU) en el tramo de red por el que va a circular podrá ser dividida en paquetes más pequeños, y re ensamblada luego cuando sea necesario. Estos fragmentos podrán ir cada uno por un camino diferente dependiendo de como estén de congestionadas las rutas en cada momento.
**Protocolo ARP**
Permite que se conozca la dirección física de una tarjeta de interfaz de red correspondiente a una dirección IP. Por eso se llama Protocolo de Resolución de Dirección (en inglés ARP significa Address Resolution Protocol).
Cada equipo conectado a la red tiene un número de identificación de 48 bits(Dirección física). Éste es un número único establecido en la fábrica en el momento de fabricación de la tarjeta. Sin embargo, la comunicación en Internet no utiliza directamente este número (ya que las direcciones de los equipos deberían cambiarse cada vez que se cambia la tarjeta de interfaz de red), sino que utiliza una dirección lógica asignada por un organismo, la dirección IP.
El funcionamiento del protocolo ARP es bastante simple, cuando una máquina desea enviar un mensaje a otra máquina que está conectada a través de una red ethernet se encuentra con un problema: la dirección IP de la máquina en cuestión es diferente a la dirección física de la misma. La máquina que quiere enviar el mensaje sólo conoce la dirección IP del destino, por lo que tendrá que encontrar un modo de traducir la dirección IP a la dirección física, para ello se utilizará el protocolo ARP.
Para que las direcciones físicas se puedan conectar con las direcciones lógicas, el protocolo ARP interroga a los equipos de la red para averiguar sus direcciones físicas y luego crea una tabla de búsqueda entre las direcciones lógicas y físicas en una memoria caché, esta tabla denominada Tabla de Direcciones ARP contiene la correspondencia entre direcciones IP y direcciones físicas utilizadas recientemente. Si la dirección solicitada se encuentra en esta tabla el proceso se termina en este punto, puesto que la máquina que origina el mensaje ya dispone de la dirección física de la máquina destino.
Si la dirección buscada no está en la tabla el protocolo ARP envía un mensaje a toda la red. Cuando un ordenador reconoce su dirección IP envía un mensaje de respuesta que contiene la dirección física. Cuando la máquina origen recibe este mensaje ya puede establecer la comunicación con la máquina destino, y esta dirección física se guarda en la Tabla de direcciones ARP y a continuación podrá establecerse la comunicación.
Por ejemplo Si queremos enviar un paquete de “A” a “B” que se encuentra en la misma red lo primero que hace “A” es comprobar en su tabla ARP si se encuentra la dirección MAC de “B” si es así se utiliza si no se enviara el correspondiente paquete broadcast esperando la respuesta de la maquina cuya dirección IP corresponda con la preguntada añadiendo un nuevo registro a la tabla. Estas entradas se borran cada cierto tiempo.
En un segundo caso si “A” quiere enviar un paquete a “B” que no esta en su misma red lo que hace “A” es enviarlo a través de la dirección física de su router de salida, para ello consulta la tabla ARP realizando el correspondiente intercambio de mensajes si dicha entrada no se encuentra en la tabla. Una vez en el router este consulta su tabla de encaminamiento enviando el paquete al próximo nodo y así sucesivamente hasta que le paquete llega a un router de la red en la que se encuentre la IP destino. Una vez allí el router se encarga de averiguar la dirección física consultando su tabla ARP o preguntando con mensajes correspondientes.
**Protocolo ICMP**
El Protocolo de Mensajes de Control y Error de Internet, ICMP, tiene un formato simple, su utilidad está en controlar si un paquete no puede alcanzar su destino, si su vida ha expirado, si el encabezamiento lleva un valor no permitido, si es un paquete de eco o respuesta, etc. Es decir, se usa para manejar mensajes de error y de control necesarios para los sistemas de la red, informando con ellos a la fuente original para que evite o corrija el problema detectado. ICMP proporciona así una comunicación entre el software IP de una máquina y el mismo software en otra, ya que el protocolo IP escasea de dichos controles.
El protocolo ICMP solamente informa de incidencias en la entrega de paquetes o de errores en la red en general, pero no toma decisión alguna al respecto (esto es tarea de las capas superiores que se explicará un poco mas adelante). Por lo tanto, el protocolo ICMP es usado por todos los routers para indicar un error (llamado un problema de entrega).
Como vemos en la imagen, los mensajes ICMP se transmiten como datagramas IP normales, con el campo de cabecera "protocolo" con un valor 1, y comienzan con un campo de 8 bits que define el tipo de mensaje de que se trata. A continuación viene un campo código, de o bits, que a veces ofrece una descripción del error concreto que se ha producido y después un campo suma de control, de 16 bits, que incluye una suma de verificación de errores de transmisión. Tras estos campos viene el cuerpo del mensaje, determinado por el contenido del campo "tipo". Contienen además los 8 primeros bytes del datagrama que ocasionó el error.
Los mensajes de error ICMP se envían a través de la red en forma de datagramas, como cualquier otro dato. Por lo tanto, los mismos mensajes de error pueden contener errores.
Sin embargo, si existe un error en un datagrama que lleva un mensaje ICMP, no se envía ningún mensaje de error para evitar el efecto "bola de nieve", si hay un incidente en la red.
Los principales tipos de mensaje ICMP son:
Mensajes informativos
Entre estos mensajes hay algunos de suma importancia, como los mensajes de petición de ECO (tipo 8) y los de respuesta de Eco (tipo 0). Las peticiones y respuestas de eco se usan en redes para comprobar si existe una comunicación entre dos host a nivel de capa de red, por lo que nos pueden servir para identificar fallos en este nivel, ya que verifican si las capas física (cableado), de enlace de datos (tarjeta de red) y red (configuración IP) se encuentran en buen estado y configuración.
Mensajes de error
En el caso de obtener un mensaje ICMP de destino inalcanzable, con campo "tipo" de valor 3, el error concreto que se ha producido vendrá dado por el valor del campo "código", pudiendo presentar los siguientes valores que se muestran en la parte derecha.
Este tipo de mensajes se generan cuando el tiempo de vida del datagrama a llegado a cero mientras se encontraba en tránsito hacia el host destino (código=0), o porque, habiendo llegado al destino, el tiempo de reensamblado de los diferentes fragmentos expira antes de que lleguen todos los necesarios (código=1).
Los mensajes ICMP de tipo= 12 (problemas de parámetros) se originan por ejemplo cuando existe información inconsistente en alguno de los campos del datagrama, que hace que sea imposible procesar el mismo correctamente, cuando se envían datagramas de tamaño incorrecto o cuando falta algún campo obligatorio.
Por su parte, los mensajes de tipo=5 (mensajes de redirección) se suelen enviar cuando, existiendo dos o más routers diferentes en la misma red, el paquete se envía al router equivocado. En este caso, el router receptor devuelve el datagrama al host origen junto con un mensaje ICMP de redirección, lo que hará que éste actualice su tabla de enrutamiento y envíe el paquete al siguiente router.
**Protocolo RARP**
El protocolo RARP (Protocolo de Resolución de Dirección Inversa) es mucho menos utilizado que el ARP, el protocolo RARP se usa esencialmente para las estaciones de trabajo sin discos duros que desean conocer su dirección física.
El protocolo RARP le permite a la estación de trabajo averiguar su dirección IP desde una tabla de búsqueda entre las direcciones MAC (direcciones físicas) y las direcciones IP alojadas por una pasarela ubicada en la misma red de área local (LAN).
Para poder hacerlo, el administrador debe definir los parámetros de la pasarela (router) con la tabla de búsqueda para las direcciones MAC/IP. A diferencia del ARP, este protocolo es estático lo que implica que la tabla de búsqueda debe estar siempre actualizada para permitir la conexión de nuevas tarjetas de interfaz de red.
El protocolo RARP tiene varias limitaciones:
Se necesita mucho tiempo de administración para mantener las tablas importantes en los servidores, esto se ve reflejado aún más en las grandes redes lo que plantea problemas de recursos humanos, necesarios para el mantenimiento de las tablas de búsqueda y de capacidad por parte del hardware que aloja la parte del servidor del protocolo RARP.
El protocolo RARP permite que varios servidores respondan a solicitudes, pero no prevé mecanismos que garanticen que todos los servidores puedan responder, ni que respondan en forma idéntica, por lo que, en este tipo de arquitectura, no podemos confiar en que un servidor RARP sepa si una dirección MAC se puede conectar con una dirección IP, porque otros servidores ARP pueden tener una respuesta diferente.
Otra limitación del protocolo RARP es que un servidor sólo puede servir a una LAN.
Para solucionar los dos primeros problemas de administración, el protocolo RARP se puede remplazar por el protocolo DRARP, que es su versión dinámica.
**Protocolo IGMP**
El protocolo de red IGMP (Protocolo de administración de grupos de Internet (IGMP)) se utiliza para intercambiar información acerca del estado de pertenencia entre enrutadores IP que admiten la multidifusión y miembros de grupos de multidifusión. Los hosts miembros individuales informan acerca de la pertenencia de hosts al grupo de multidifusión y los enrutadores de multidifusión sondean periódicamente el estado de la pertenencia.
Además de definir las extensiones de direcciones y hosts para la compatibilidad de los hosts IP con multidifusión, esta RFC también define la versión 1 del Protocolo de administración de grupos de Internet (IGMP). RFC 2236, "Internet Group Management Protocolo (IGMP), versión 2" (Protocolo de administración de grupos de Internet (IGMP), versión 2) define la versión 2 de IGMP. Ambas versiones de IGMP proporcionan un protocolo para intercambiar y actualizar información acerca de la pertenencia de hosts a grupos de multidifusión específicos. Además, la familia Windows Server 2003 admite IGMP versión 3, descrito en el borrador Internet "Internet Group Management Protocolo, versión 3" (Protocolo de administración de grupos de Internet, versión 3). Mediante IGPM versión 3, los hosts pueden especificar su interés en recibir tráfico de multidifusión de los orígenes especificados o de todos los orígenes a excepción de un conjunto específico de orígenes. La versión mas usada es la 2.
*Capa de transporte*
La principal tarea de la capa de transporte es proporcionar la comunicación entre un programa de aplicación y otro, (este tipo de comunicación se conoce frecuentemente como comunicación punto a punto) el problema es identificar estas aplicaciones, de hecho, según el equipo y su sistema operativo, la aplicación puede ser un programa, una tarea, un proceso, etc. Además, el nombre de la aplicación puede variar de un sistema a otro sistema, por ello, se ha implementado un sistema de numeración para poder asociar un tipo de aplicación con un tipo de datos, estos identificadores se le conocen como puertos.
Además esta capa regula el flujo de información, también puede proporcionar un transporte confiable, asegurando que los datos lleguen sin errores y en secuencia, para hacer esto, el software de protocolo de transporte tiene el lado de recepción enviando acuses de recibo de retorno y la parte de envío retransmitiendo los paquetes perdidos.
El software de transporte divide el flujo de datos que se está enviando en pequeños fragmentos (por lo general conocidos como paquetes) y pasa cada paquete, con una dirección de destino, hacia la siguiente capa de transmisión, aun cuando en el esquema anterior se utiliza un solo bloque para representar la capa de aplicación, una computadora de propósito general puede tener varios programas de aplicación accesando la red de redes al mismo tiempo.
La capa de transporte debe aceptar datos desde varios programas de usuario y enviarlos a la capa del siguiente nivel, para hacer esto, se añade información adicional a cada paquete, incluyendo códigos que identifican qué programa de aplicación envía y qué programa debe recibir, así como una suma de verificación para verificar que el paquete ha llegado intacto y utiliza el código de destino para identificar el programa de aplicación en el que se debe entregar.
La capa de transporte contiene dos protocolos que permiten que dos aplicaciones puedan intercambiar datos independientemente del tipo de red (es decir, independientemente de las capas inferiores). Estos dos protocolos son los siguientes:
**Protocolo TCP**
TCP, significa Protocolo de Control de Transmisión, en el nivel de aplicación, posibilita la administración de datos que vienen del nivel más bajo del modelo, o van hacia él, (es decir, el protocolo IP). Cuando se proporcionan los datos al protocolo IP, los agrupa en datagramas IP, fijando el campo del protocolo en 6 (para que sepa con anticipación que el protocolo es TCP).
TCP es un protocolo orientado a conexión, es decir, que permite que dos máquinas que están comunicadas controlen el estado de la transmisión.
Las principales características del protocolo TCP son las siguientes:
• Permite colocar los datagramas nuevamente en orden cuando vienen del protocolo IP.
• Permite que el monitoreo del flujo de los datos y así evitar la saturación de la red.
• Permite que los datos se formen en segmentos de longitud variada para "entregarlos" al protocolo IP.
• Permite multiplexar los datos, es decir, que la información que viene de diferentes fuentes en la misma línea pueda circular simultáneamente.
• Por último, permite comenzar y finalizar la comunicación amablemente.
Objetivos de TCP:
• Con el uso del protocolo TCP, las aplicaciones pueden comunicarse en forma segura (gracias al sistema de acuse de recibo del protocolo TCP) independientemente de las capas inferiores. Esto significa que los routers (que funcionan en la capa de Internet) sólo tienen que enviar los datos en forma de datagramas, sin preocuparse con el monitoreo de datos porque esta función la cumple la capa de transporte (o más específicamente el protocolo TCP).
• Durante una comunicación usando el protocolo TCP, las dos máquinas deben establecer una conexión. La máquina emisora (la que solicita la conexión) se llama cliente, y la máquina receptora se llama servidor. Por eso es que decimos que estamos en un entorno Cliente-Servidor.
Las máquinas de dicho entorno se comunican en modo en línea, es decir, que la comunicación se realiza en ambas direcciones.
• Para posibilitar la comunicación y que funcionen bien todos los controles que la acompañan, los datos se agrupan; es decir, que se agrega un encabezado a los paquetes de datos que permitirán sincronizar las transmisiones y garantizar su recepción.
• Otra función del TCP es la capacidad de controlar la velocidad de los datos usando su capacidad para emitir mensajes de tamaño variable. Estos mensajes se llaman segmentos.
**Protocolo UDP**
El protocolo UDP, Protocolo de datagrama de usuario, proporciona una comunicación muy sencilla entre las aplicaciones de dos ordenadores. Al igual que el protocolo IP, UDP no está orientado a conexión, es decir, no se establece una conexión previa con el otro extremo para transmitir un mensaje UDP. Los mensajes se envían sin más y éstos pueden duplicarse o llegar desordenados al destino, perderse o llegar dañados, por lo que no es fiable por lo que las aplicaciones, deberá programarse teniendo en cuenta que la información puede no llegar de forma correcta.
UDP utiliza el protocolo IP para transportar sus mensajes, no añade ninguna mejora en la calidad de la transferencia aunque si incorpora los puertos origen y destino en su formato de mensaje.
*Capa de aplicación:
La capa de aplicación se encuentra en la parte superior de las capas del protocolo TCP/IP. Contiene las aplicaciones de red que permiten la comunicación mediante las capas inferiores, por lo tanto, el software en esta capa se comunica mediante uno o dos protocolos de la capa inferior (la capa de transporte), es decir, TCP o UDP, (nombrados anteriormente), cada programa de aplicación selecciona el tipo de transporte necesario, el cual puede ser una secuencia de mensajes individuales o un flujo continuo de octetos, el programa de aplicación pasa los datos en la forma requerida hacia el nivel de transporte para su entrega.
Existen diferentes tipos de aplicaciones para esta capa, pero la mayoría son servicios de red o aplicaciones brindadas al usuario para proporcionar la interfaz con el sistema operativo. Se pueden clasificar según los servicios que brindan:
• servicios de administración de archivos e impresión (transferencia);
• servicios de conexión a la red;
• servicios de conexión remota;
• diversas utilidades de Internet.
Formato de la trama
Por ser una red broadcast los mensajes enviados por una estación se difunden por toda la red, llegando a todas las estaciones de la misma. Esto permite la emisión de mensajes destinados a todas las estaciones (Broadcast) o a un grupo de ellas (Multicast).
El paquete de un mensaje Ethernet consta de los siguientes campos:
Hueco entre tramas: Es un período de tiempo en que no se transmite nada, de longitud equivalente a 12 bytes (por ejemplo 96 ns a 10 Mb/s) que sirve para separar las tramas. Este hueco entre tramas es el único mecanismo fiable para detectar cuando termina una trama, ya que el campo longitud puede no existir y aunque exista no se utilizará en tiempo de captura para averiguar cuando termina la trama. El hueco también sirve para dar un respiro al receptor, que puede necesitar un pequeño respiro al final de una trama para realizar diversas tareas de mantenimiento (transvase de buffers de la interfaz de red al host, interrupciones a la CPU, etc.) antes de volver a la escucha. Para asegurar que se respete el hueco el estándar establece que siempre que una estación vaya a enviar una trama deberá esperar el tiempo equivalente a 12 bytes antes de empezar a transmitir el preámbulo.
Preámbulo y delimitador (7 y 1 bytes): El preámbulo está formado por la secuencia 10101010 repetida siete veces, y el delimitador de inicio por la secuencia 10101011. Esto al ser transmitido con codificación Manchester genera una onda cuadrada de 10 MHz durante 5,6 m s, lo cual permite a los demás ordenadores sincronizar sus relojes con el emisor. El delimitador de inicio de trama marca el final del preámbulo y el comienzo de ésta.
Dirección de destino (6 bytes).
Dirección de origen (6 bytes): Las direcciones Ethernet tienen 48 bits, de manera que cada estación tiene una dirección única grabada en el hardware con lo que no puede haber coincidencias de dirección entre dos estaciones distintas. Los rangos de direcciones Ethernet son otorgados como parte de la licencia de Xerox a los fabricantes de tarjetas de interfaz Ethernet. Cada fabricante se puede identificar mediante los 3 primeros octetos de la dirección Ethernet, y los otros 3 numeran de forma única cada interfaz, de tal manera que nunca puedan existir dos tarjetas de interfaz Ethernet con la misma dirección.
Tipo (2 bytes): En este campo se indica cual es el protocolo del nivel inmediatamente superior (el de RED) encapsulado en el campo de datos. Este valor ha de ser superior al valor 05EE en hexadecimal, si es inferior, se trata de un campo de longitud utilizado en tramas de tipo IEEE 802.3. La longitud mínima de una trama Ethernet fija el diámetro de la red, ya que para el correcto funcionamiento del protocolo CSMA/CD es preciso que el tiempo de ida y vuelta no sea nunca superior a lo que tarda en emitirse una trama del tamaño mínimo. De haber mantenido la trama mínima de 64 bytes en Gigabit Ethernet el diámetro máximo habría sido de unos 45 m, inaceptables en la mayoría de situaciones. Para evitar esto la trama Gigabit Ethernet incorpora un segundo relleno denominado “extensión de portadora” que se añade al final de la trama para garantizar que la longitud mínima nunca sea inferior a 512 bytes (4096 bits). De esta forma el tiempo de ida y vuelta máximo es de 4,096 m s y el diámetro puede ser de 330 m. Este segundo relleno no es formalmente parte de la trama Ethernet, por lo que solo existirá mientras la trama viaje por Gigabit Ethernet. En el caso de que una trama con extensión de portadora sea transmitida a una red de 100 o 10 Mb/s la extensión de portadora se eliminará, e inversamente, si una trama menor de 512 bytes llega a una red Gigabit Ethernet desde Fast Ethernet o Ethernet el conmutador correspondiente añadirá la extensión de portadora necesaria para que la longitud sea de 512 bytes. El uso de extensión de portadora supone una pérdida de eficiencia en el caso de tramas pequeñas, y un mayor riesgo de colisiones como veremos luego. Para reducir en lo posible estos problemas se prevé la posibilidad de que una estación que quiera enviar varias tramas pequeñas seguidas lo haga como una ráfaga sin necesidad de 'envolver' cada una en una extensión de portadora independiente (sin embargo si aún así la ráfaga es menor de 512 bytes seguirá generándose una extensión de portadora).
La longitud máxima de una trama Ethernet es de 1518 bytes (1500 bytes de datos más cabeceras). Los diseñadores originales de Ethernet (Xerox) consideraron este campo de longitud innecesario porque la mayoría de los protocolos a nivel de red (y ciertamente todos aquellos en los que estaban interesados) incluyen en la información de cabecera un campo indicando la longitud, y cuando esto no es así la longitud de la trama se puede averiguar simplemente contando el número de bytes que ésta contiene (siempre y cuando no haya campo de relleno, es decir que la trama tenga al menos 64 bytes). Por el contrario si consideraron necesario un campo tipo que identificaba el protocolo de nivel de red encapsulado. Sin embargo el comité 802.3 creyó conveniente incluir el campo longitud en vez del campo tipo para no condicionar la información que debiera aparecer en el nivel de red. Esta pequeña modificación tenía el efecto colateral de hacer incompatible el estándar IEEE 802.3 con Ethernet DIX, cosa que según algunos era el verdadero objetivo de muchos de los miembros del comité que votaron a favor de esta modificación. Xerox resolvió en parte el problema de incompatibilidad producido por la decisión del IEEE asignando a todos los protocolos códigos superiores a 1536, valor máximo del campo longitud; por ejemplo el código correspondiente a IP es 2048. Así analizando el valor de este campo podemos saber si la trama tiene formato DIX u 802.3. Los dos formatos son incompatibles entre sí, pero al menos pueden coexistir en una misma red. En el caso de una trama 802.3 la información sobre el protocolo a nivel de red aparece en la parte de datos de la trama, en una cabecera LLC (Logical Link Control) cuyo formato veremos mas tarde. La estructura de esta cabecera, común a todas las redes locales 802, se especifica en el estándar IEEE 802.2. El trabajo conjunto del IEEE y de la ISO en el diseño de la cabecera LLC produjo un diseño absurdo e innecesariamente complejo que hace que en la mayoría de los protocolos sea necesario analizar los cuatro campos y los ocho bytes de la cabecera LLC para averiguar lo que Xerox obtenía usando solo dos bytes en la cabecera DIX. Esto complica el proceso de los paquetes y añade un overhead innecesario, sobre todo en el caso de tramas pequeñas. Por este motivo incluso hoy en día el formato DIX es el mas utilizado, empleándose por ejemplo en TCP/IP, DECNET fase 4, LAT (Local Area Transport, de DEC) y algunas implementaciones de IPX (Netware de Novell). El formato 802.3/LLC es utilizado normalmente en Appletalk fase 2, NetBIOS y algunas implementaciones de IPX. En 1997 el grupo de trabajo 802.3x estandarizó un mecanismo de control de flujo para Ethernet Full Dúplex. Entonces se definió un protocolo de red específico para el control de flujo (es decir un nuevo valor del campo tipo para este protocolo), y se apreciaron considerables ventajas en disponer de la información sobre el tipo de protocolo en la cabecera MAC, como hacía el formato DIX, ya que esto permitía tratar las tramas a bajo nivel, es decir por hardware; el control de flujo es una tarea de máxima prioridad y se debe realizar con la máxima eficiencia posible. El comité podía haber estandarizado el formato DIX únicamente para las tramas de control de flujo, y mantener el 802.3/LLC para los demás protocolos, pero finalmente decidió aceptar todos los protocolos en el formato DIX considerando válidos los dos significados, tipo y longitud, para este campo de dos bytes. La elección de cual significado es aplicable en cada caso se haría en función del valor de este campo. Dicho de otro modo el comité estandarizó lo que era ya una práctica generalizada en todas las implementaciones existentes. De alguna manera esto representa una reconciliación quince años mas tarde con DIX (y con el mundo real). En la RFC 1700 podemos consultar la relación de números-protocolo para este campo.
Datos (46 a 1500 bytes): Contiene los datos transmitidos por la trama. Estos datos corresponden al nivel siguiente, que será la cabecera LLC encapsulando a los datos del nivel de red.
CRC (4 bytes): Código de redundancia cíclica para detección de errores en la trama.
La especificación IEEE 802.3 define un formato ligeramente diferente donde las direcciones pueden ser de 16 ó 48 bits y un campo de longitud del mensaje de 16 bits reemplaza al campo del tipo de mensaje. En una red se ha de usar el campo de dirección de 16 o de 48 bits pero no una mezcla de tramas con campo de dirección de diferente tamaño en el mismo cable. A pesar de estas diferencias, en una misma red local pueden transmitirse simultáneamente tramas de tipo Ethernet y de tipo IEEE 802.3 con campo de dirección de 48 bits sin problemas, ya que si en el campo Tipo de 2 bytes el valor es inferior a 0x05EE la trama se interpreta como IEEE 802.3 y si es superior como Ethernet.
Introducción
El término topología se refiere a la forma en que está diseñada la red, bien físicamente (rigiéndose de algunas características en su hardware) o bien lógicamente (basándose en las características internas de su software).
Las redes Ethernet a menudo están formadas por múltiples segmentos individuales interconectados por repetidores. Los segmentos están interconectados entre si siguiendo lo que se denomina un patrón. Cada segmento Ethernet es una rama individual de la red completa.
La topología de red es la representación geométrica de la relación entre todos las ramas y los dispositivos que los enlazan entre sí (habitualmente denominados nodos).
Para el día de hoy, existen al menos cinco posibles topologías de red básicas: malla, estrella, árbol, bus y anillo. Sin embargo en la red Ethernet solo utilizamos la topología estrella y bus.
Topología Bus
Una topología en bus es multipunto. Un cable largo actúa como una red troncal que conecta todos los dispositivos en la red. Este cable provee un camino para las señales eléctricas que es común para todos los dispositivos conectados y transporta todas las transmisiones entre los dispositivos.
Los nodos se conectan al bus mediante cables de conexión (latiguillos) y sondas. Un cable de conexión es una conexión que va desde el dispositivo al cable principal. Una sonda es un conector que, o bien se conecta al cable principal, o se pincha en el cable para crear un contacto con el núcleo metálico.
Entre las ventajas de la topología de bus se incluye la sencillez de instalación. El cable troncal puede tenderse por el camino más eficiente y, después, los nodos se pueden conectar al mismo mediante líneas de conexión de longitud variable. De esta forma se puede conseguir que un bus use menos cable que una malla, una estrella o una topología en árbol. Un problema asociado con el diseño bus de cableado es que un fallo en cualquier parte del cable va a interrumpir el camino eléctrico. Como resultado, la operación de todos los dispositivos conectados será interrumpida.
Los dispositivos conectados a un segmento de cable siguen una topología conocida como cadena tipo margarita. En esta topología, un cable conectado a un conector T BNC en un dispositivo es conectado a otro conector T en el siguiente dispositivo y así sucesivamente. Los conectores T que se encuentran en los extremos opuestos del segmento son terminales. Si cualquier cable es removido incorrectamente del conector T, todo el segmento queda sin funcionar para todos los dispositivos conectados. Si el conector T es removido de la interfaz de red Ethernet, el segmento continúa funcionando, ya que la continuidad del cable coaxial no ha sido interrumpida.
También es posible tener segmentos punto a punto en un ambiente de cable delgado. Utilizando un repetidor multipuerto se puede conectar un segmento en forma directa a un dispositivo. Esto limita el número de dispositivos que pueden ser afectados por el daño a un cable específico.
Topologia Arbol
Es una topología de red en la que los nodos están colocados en forma de árbol. Desde una visión topológica, la conexión en árbol es parecida a una serie de redes en estrella interconectadas salvo en que no tiene un nodo central. En cambio, tiene un nodo de enlace troncal, generalmente ocupado por un hub o switch, desde el que se ramifican los demás nodos, al que hay conectar las redes individuales en bus. Por lo tanto árbol combina características de la topología de estrella con la de bus.
En esta topología podemos encontrarnos ventajas como la facilidad de crecimiento de la red, sin embargo, existen desventajas como que su configuración es más complicada y que si falla el segmento principal toda la red queda inutilizada.
Topología Estrella
En la topología en estrella cada dispositivo solamente tiene un enlace punto a punto dedicado con el controlador central, habitualmente llamado concentrador. Los dispositivos no están directamente enlazados entre sí, sino a un concentrador o hub central, formando un segmento. Las señales de cada dispositivo conectado son enviadas al hub y luego difundidas a todos los otros dispositivos conectados. Este diseño permite a Ethernet operar lógicamente como un bus, pero físicamente el bus solo existe en el hub.
A diferencia de otras topologías, la topología en estrella no permite el tráfico directo de dispositivos. El controlador actúa como un intercambiador, si un dispositivo quiere enviar datos a otro, envía los datos al controlador, que los retransmite al dispositivo final.
El controlador usa mecanismos de filtrado y conmutación muy similares a los utilizados por las puertas de enlace, Inspecciona las direcciones de origen y destino de los mensajes, genera una tabla que le permite saber qué equipo se conecta a qué puerto del controlador (en general este proceso se hace por auto aprendizaje, es decir, de manera automática pero el administrador del controlador puede realizar ajustes adicionales).
Al conocer el puerto receptor, el controlador sólo transmitirá el mensaje al puerto adecuado mientras que los otros puertos permanecerán libres para otras transmisiones que pueden ser realizadas simultáneamente.
Como resultado, cada intercambio puede llevarse a cabo a una velocidad nominal (mayor división de ancho de banda), sin colisiones y con un aumento considerable en el ancho de banda de la red (también a una velocidad nominal).
El correcto funcionamiento de la comunicación requiere que el tiempo de ida y vuelta entre dos estaciones cualesquiera de la red no supere el tiempo que tarda en emitirse la trama mínima permitida. Este tiempo, que depende de la velocidad de la red, fija a su vez unas distancias máximas entre las estaciones. Estos cuatro parámetros (velocidad de la red, tamaño de trama mínimo, tiempo de ida y vuelta y distancia máxima) están relacionados entre sí, como se muestra en la tabla siguiente:
Las distancias indicadas en la tabla son el caso óptimo; en la práctica la distancia depende de múltiples factores, como el número de repetidores intermedios o el tipo de cable utilizado. La comprobación última de que una determinada topología de red es válida sería medir o calcular el tiempo de ida y vuelta entre cada posible par de estaciones de la red para comprobar que es inferior al que aparece en la tabla.
El estándar IEEE 802.3 establece dos formas de verificar que una determinada topología Ethernet es válida. La primera, denominada Modelo 1, corresponde a un conjunto de reglas 'enlatadas' sobre la distancia máxima y el número máximo de repetidores que puede haber entre dos estaciones.
Cumpliendo esas reglas el usuario se asegura de que su red no excede los valores máximos en el tiempo de ida y vuelta. Ahora bien, el Modelo 1 adopta una actitud conservadora y presupone las longitudes máximas en el enlace del usuario final. Si éste no esta utilizando la longitud máxima es posible aumentar la distancia en los enlaces intermedios. En este caso hay que verificar la topología siguiendo el Modelo 2, que consiste en realizar cálculos detallados del retardo para cada componente y para cada tramo de cable en cada trayecto. Una topología en principio inaceptable según el Modelo 1 puede resultar válida aplicando las reglas del Modelo 2.
Con respecto a saber si todos los puertos pueden comunicarse al mismo tiempo sin perder los mensajes, eso es algo que depende de la calidad del controlador (non blocking switch). Los controladores posibilitan evitar colisiones y la mayoría de los modernos permiten desactivar la detección y cambiar a modo full dúplex (bidireccional) en los puertos. De esta forma, los equipos pueden transmitir y recibir al mismo tiempo, lo que también contribuye al rendimiento de la red.
El modo full dúplex es interesante, en especial, para los servidores que poseen muchos clientes.
Los controladores Ethernet modernos también detectan la velocidad de transmisión que cada equipo utiliza (autosensing) y si el equipo admite varias velocidades (10, 100 o 1000 megabits/seg.) comienza a negociar con él para seleccionar tanto una velocidad como el modo de transmisión: semi dúplex o full dúplex. Esto permite contar con un almacenamiento de equipos con distintos rendimientos (por ejemplo, un conjunto de equipos con varias configuraciones hardware).
Como el tráfico transmitido y recibido ya no se transmite a todos los puertos, se hace más difícil rastrear lo que está pasando. Esto contribuye a la seguridad general de la red, que es un tema de suma importancia en la actualidad.
La topología estrella simplifica la administración de la red y la resolución de problemas ya que cada tramo de cable conecta solo dos dispositivos, una a cada extremo del cable. Si un dispositivo no puede comunicarse exitosamente con en la red, puede ser movido físicamente a otra ubicación para establecer si la falla reside en el cableado o en el dispositivo. Este tipo de aislamiento es mucho más difícil en las topologías bus.
Una topología en estrella es más barata, ya que, cada dispositivo necesita solamente un enlace y un puerto de entrada/salida para conectarse a cualquier número de dispositivos.
Este factor hace que también sea más fácil de instalar y reconfigurar. Además, es necesario instalar menos cables, y la conexión, desconexión y traslado de dispositivos afecta solamente a una conexión: la que existe entre el dispositivo y el concentrador.
Actualmente la topología física recomendada para las instalaciones es la topología estrella como se especifica en ANSI/TIA/EIA-568-A. La utilización de una topología estrella ha permitido limitar las interrupciones en la red causadas por problemas de cableado.
Por último, el uso de conmutadores hace posible la construcción de redes geográficamente más grandes. La distancia ya no es limitada, excepto por los límites técnicos del medio utilizado (fibra óptica o par trenzado, la potencia de la señal transmitida y la sensibilidad del receptor, etcétera).
Por lo tanto llegamos a la conclusión de que la topología física de una red Ethernet está basada en estrella, mientras que la topología lógica sigue siendo basada en bus, aprovechando las ventajas de ambas topologías.
Tipos de Ethernet
Existen una gran variedad de implementaciones de IEEE 802.3. Para distinguir entre ellas, se ha desarrollado una notación. Esta notación especifica tres características de la implementación.
• La tasa de transferencia de datos en Mb/s
• El método de señalamiento utilizado
• La máxima longitud de segmento de cable en cientos de metros del tipo de medio.
La notación con la que normalmente se designa cada uno es en base a la especificación XBaseY, cuya interpretación es la siguiente:
X: Este valor denota la velocidad de transmisión de datos (Mb/s).
Base: Esto indica que los datos se transmiten en banda base. Esto significa que se usa o se envía la información tal y como se produce; es decir, no se modula en un ancho de banda específico, sino que se transmite en el ancho de banda en que llega originalmente; esto es porque si se llegase a modular posiblemente llegue a ocupar todo el ancho de banda. Existe otro tipo de señalización Broad, en el que la señal se modula, no tuvo mucha aceptación (10broad36).
Y: Este número significa o denota la longitud de cada segmento, aunque también puede dar información sobre medio físico con alguna letra.
Ejemplo:
Podemos hacer la siguiente clasificación de las redes de protocolo Ethernet:
- Ethernet: Hasta 10 Mb/s.
- Fast Ethernet: Hasta 100 Mb/s.
- Gigabit Ethernet: Hasta 1000 Mb/s.
- 10 Gigabit Ethernet.
- 40 Gigabit Ethernet.
- 100 Gigabit Ethernet.
Implementación en banda base de par trenzado de 1 Mb/s con una longitud de cable de 460 metros.
Es el estándar IEEE para Ethernet, también conocida como THICK ETHERNET (Ethernet grueso), en banda base a 10Mb/s sobre cable coaxial de 50 Ω y de cable par trenzado a una distancia máxima de 500m.Este cable es relativamente grueso (10mm) y rígido, sin embargo es muy resistente a interferencias externas y tiene pocas pérdidas, lo cual es una clara ventaja.
Utiliza una topología en BUS.
Tiene una serie de inconvenientes como es su inflexibilidad, ya que es difícil realizar cambios en la instalación una vez montada, su intolerancia a fallos, es decir, que si un cable se corta o falla un conector todo dejara de funcionar, además de la dificulta para localizar esos fallos.
Debido a sus inconvenientes, en la actualidad 10 Base-5 no es usado para montaje de redes locales. El uso más común que se le da en la actualidad es el de "Backbone". Básicamente un backbone se usa para unir varios HUB de 10 Base-T cuando la distancia entre ellos es grande.
También es una especificación original de Ethernet que utiliza cable coaxial fino de 50 de impedancia para transmisiones de hasta 10 Mb/s.
El coste de instalación del coaxial y los transceptores de las redes propiciaron la utilización de un cable mas fino y mas barato, siendo una versión barata de 10 Base-5, por esto, también se le conoce Thin Ethernet (Ethernet fino) o cheaper-net(red barata).
Este tipo de red ha sido la más usada en los últimos años en instalaciones no muy grandes debido a su simplicidad y precio asequible. Se caracteriza por su cable coaxial fino, él cual lo protege contra el ruido, y por su topología en BUS.
A pesar de sus múltiples ventajas, tiene los mismos fallos que el 10Base5, inflexibilidad, intolerancia a fallos y dificultad para localizarlos.
La tecnología 10 Base-2 se usa para pequeñas redes que no tengan previsto cambiar su disposición física. De igual manera que 10 Base-5, uno de los usos habituales de esta tecnología es como backbone.
Define un estándar a 10Mb/s sobre cable coaxial de banda ancha de 75 Ω con una distancia máxima de 3600m.En la actualidad es un estándar que apenas se utiliza.
El estándar IEEE para Ethernet en banda base a 10 Mb/s sobre cable par trenzado sin blindaje siguiendo una topología de cableado horizontal en forma de estrella, con una distancia máxima de 100m, también puede usarse topología en árbol.
El cable usado se llama UTP que consiste en cuatro pares trenzados sin apantallamiento. El propio trenzado que llevan los hilos es el que realiza las funciones de asilar la información de interferencias externas. También existen cables similares al UTP pero con apantallamiento que se llaman STP (Par Trenzado Apantallado mediante malla de cobre) y FTP (Par Trenzado apantallado mediante papel de aluminio).
Posee una serie de ventajas que no poseen otras variantes de Ethernet como el aislamiento de fallos debido a la topología usada, posee también un indicador de averías, por lo que es fácil detectar un nodo defectuoso y la alta movilidad en la red, es decir, tener la posibilidad de desconectar un nodo en la red sin que tenga ningún efecto sobre el resto.
Sin embargo, permite una distancia máxima entre nodo y concentrador relativamente pequeña y tiene una alta sensibilidad a interferencias externas, por eso cuando necesitemos mas protección contra interferencias usaremos el cable FTP o el STP que es igual que el UTP pero con protección por malla.
Es la tecnología más usada en la actualidad por todas las ventajas que aporta y sobre todo por la flexibilidad y escalabilidad que supone tener una instalación de este tipo.
El estándar IEEE para Ethernet en banda base a 10Mb/s sobre fibra óptica con una distancia máxima de 2.000 metros (2Km).
Es la especificación Ethernet sobre fibra óptica de 10Mb/s. Los cables de cobre presentan el problema de ser susceptibles tanto de producir como de recibir interferencias. Por ello, en entornos industriales o donde existen equipos sensibles a las interferencias, es muy útil poder utilizar la fibra. Normalmente, las redes Ethernet de fibra suelen tener una topología en estrella.
La distancia entre equipos puede llegar a 2 Km.
Los siguientes factores fueron determinantes a la hora de implantar Fast Ethernet:
• El incremento de las velocidades de los procesadores
• El incremento de los usuarios de las redes
• Las nuevas aplicaciones intensivas en ancho de banda usadas en las redes.
Obteniendo las siguientes ventajas:
Fast Ethernet esta basada en el estándar Ethernet por lo que es compatible con cualquier red Ethernet, independientemente del tipo que sea, ya que los adaptadores de automáticamente ajustan su velocidad al adaptador más lento, de forma que todos los equipos puedan estar conectados (aunque a costa de perder velocidad).
Puede ser instalada en la mayoría de las redes actuales casi sin cambios en la infraestructura de la red.
Finalmente, Fast Ethernet tiene una bajo coste y es la solución más adoptada de las disponibles en el mercado.
Fast ethernet puede trabajar sobre fibra óptica y sobre cable de cobre
Es semejante al 10BaseT, pero con velocidades hasta 100 Mbps, utilizando cables UTP de categoría 5.
El estándar IEEE para Ethernet en banda base a 100Mb/s sobre dos pares (cada uno de los pares de categoría 5 o superior) de cable UTP o dos pares de cable STP.
El estándar más común dentro de este tipo de Ethernet es 100BaseTX, y es soportado por la mayoría del hardware Ethernet que se produce actualmente.
La configuración de una red 100Base-TX es muy similar a una de tipo 10Base-T. Cuando utilizamos este estándar para crear una red de área local, los componentes de la red suelen estar conectados a un switch o un hub, creando una red con topología de estrella. Alternativamente, es posible conectar dos componentes directamente usando cable cruzado.
El estándar IEEE para Ethernet en banda base a 100Mb/s sobre 4 pares de cable UTP de categoría 3 (o superior).
Fue una de las primeras implementaciones de Fast Ethernet. Se requiere de cuatro pares de cable trenzado, de los cuatro pares, un par esta reservado para transmitir, otro para recibir, y los dos conmutan a envío/recepción de modo que la comunicación siempre se establece simultáneamente a través de 3 pares.
El estándar IEEE para Ethernet en banda base a 100Mb/s sobre 2 pares de categoría 3 (o superior) de cable UTP.
La versión sobre fibra óptica de estos estandars consigue una velocidad superior, así como abarcar mayor superficie sin necesidad de repetidores
Es el estándar IEEE para Ethernet en banda base a 100Mb/s sobre un sistema de cableado de dos líneas de fibra óptica multimodo (MMF), una para recepción (RX) y la otra para transmitir (TX).
Para estos casos, la longitud máxima que abarca es de 400 metros para las conexiones half-duplex (para asegurar la detección de colisiones) o 2 kilómetros para full-duplex sobre fibra óptica multimodo (en comparación con los 100 metros sobre cable de cobre).
Los cambios son:
• Ráfaga de tramas.
• Extensión de portadoras.
• Gran enfasis por el Control C, Control Z.
El estándar IEEE para Ethernet en banda base a 1000Mb/s (1Gb/s) sobre 2 fibras multimodo de cableado de fibra óptica. La distancia máxima es inferior a 550m.
El estándar IEEE para Ethernet en banda base a 1000Mb/s (1Gb/s) sobre 2 fibras monomodo o multimodo de cableado de fibra óptica. La distancia es inferior a 5km.
El estándar IEEE para Ethernet en banda base a 1000Mb/s (1Gb/s) sobre cableado de cobre blindado balanceado de 150 Ω. Este es un cable especial con una longitud máxima de 25m.
El estándar IEEE para Ethernet en banda base a 1000Mb/s (1Gb/s) sobre 4 pares de categoría 5 o superior de cable UTP, con una distancia máxima de cableado de 100m
La familia de Ethernet de 10 gigabits de estándares abarca los tipos de medios para la fibra monomodo (largo recorrido), fibra multimodo (hasta 300 m), backplane de cobre (hasta 1 m) y par trenzado de cobre (hasta 100 m).
El Ethernet de 10 gigabits sigue siendo bastante nuevo y queda por verse cual de los estándares ganará la aceptación comercial en mercados de los consumidores.
La aplicación de Ethernet en proyectos de automatización industrial es cada vez más común y debemos conocer una serie de consideraciones para actuar con precisión y no llevarnos sorpresas desagradables. Ethernet es el protocolo por el cual se comunican ordenadores en un entorno de red local, es decir, es el sistema que normalmente se utiliza para comunicar ordenadores entre sí dentro de una industria, y por ello su idoneidad será vital para poder disponer de esos datos que tanto necesitamos. Este protocolo permite compartir la información y manejar completamente un ordenador o cualquier tipo de maquinaria desde otro. Además, podremos compartir el acceso a internet, de forma que con una sola conexión a internet puedan trabajar varios ordenadores. Todo ello ha abierto las puertas a algo fundamental, la disponibilidad de información remota y en tiempo real. Debidamente procesada, la información sobre el funcionamiento de una planta industrial puede estar disponible en cualquier momento y en cualquier sitio. A continuación explicaremos las aplicaciones más recientes de Ethernet para entornos industriales, así se puede tener la capacidad suficiente como para determinar si esta tecnología es interesante en la aplicación que se requiere, y cómo se puede sacar el máximo partido.
La enorme disminución en los precios hace que Ethernet se esté extendiendo en los ambientes de fabricación, conectando sensores y otros puntos I/O a módulos cada vez más sofisticados. Ethernet está permitiendo conseguir aplicaciones que pueden ser descritas en tiempo real. Por ejemplo, Advanced Measurement Inc. usa Ethernet para conectar sensores en remotos campos de Canadá a sistemas que envían los datos a oficinas distantes. La aplicación tiene requerimientos de comunicación de milisegundos y especificaciones ambientales. Las limitaciones de Ethernet no son suficientes para renunciar a su uso ya que es tan barato que compensa todo lo demás, y acaba usándose siempre que sea posible. De hecho Ethernet es la norma en muchas factorías en todo el mundo. Ethernet se usa también cuando se requieren altos niveles de comunicaciones extendiendo la tecnología desde dispositivos tan simples como los sensores. Todos los tipos de buses se están moviendo también a Ethernet.
En solo unos años, Ethernet se ha convertido en el standard de uso industrial, con extensiones en sistemas como Industrial Networks Devicenet, Fieldbus y Profibus. No obstante, hay que tener presente que usar un network comercial para conectar procesos y máquinas puede tener serias implicaciones, ya que en el fondo los profesionales de la fabricación no han hecho más que tomar prestado una tecnología pensada para propósitos comerciales. Por todo ello, el ingeniero que utiliza Ethernet para automatizar una planta, valorando la criticidad de cada proceso, debe considerar si es necesario ampliar el diseño y programación de sistemas de control que incluyan sistemas para asegurar el network. El problema puede ser serio porque los hackers pueden ganar acceso al sistema de control. Esto es especialmente relevante si se utiliza Ethernet en un sistema anti intrusismo. Es decir, el uso de Ethernet convencional en una planta industrial presenta vulnerabilidades de seguridad, por lo que lo primero que debemos saber es si esa vulnerabilidad es crítica o puede ser asumida sin problema. La seguridad ha sido quizás la mayor preocupación de los ingenieros y profesionales de TI desde que se comenzó a utilizar la networks industrial para conectar máquinas, controles de planta y otros dispositivos. Una vez se conecta un cable a un controlador, existe la posibilidad de entrada no autorizada que pueda provocar una situación catastrófica. Ahora, que la mayoría de las networks están conectadas a internet, el potencial de entrada en el sistema se expande al mundo entero, por lo tanto las networks industriales son muy susceptibles de recibir ataques por virus y hackers. Aunque esta amenaza es un problema bien conocido hasta hoy no se han tomado medidas adecuadas al respecto, probablemente porque los ataques hasta ahora son escasos.Cuando la network de una factoría está conectada al mundo exterior, puede ser difícil conocer que virus o intruso ha ido más allá del firewall u otra tecnología de protección. Una forma de averiguar cuando un intruso está probando una network es emplear un honeypot. Estos computadores aislados se colocan sin protección y sin cometido alguno en una network, proporcionando un blanco fácil para los intrusos. La única función de honeypot es controlar actividades sospechosas, ya que cualquier acceso a este PC será una fuente sospechosa. La instalación de un honeypot requiere solamente un PC con Windows. Este PC actuaría como un nodo típico. El principio consiste en colocar un señuelo. Si alguien ataca, podremos saberlo, y tendremos conocimiento del nivel del ataque. Cuando se prueba, el PC respondería como una máquina, lo que ayudaría a asegurar que los intrusos no averiguarán que es un señuelo que alertará a los operadores.
Ethernet, según el protocolo de control de transmisión (TCP) y el protocolo de internet (IP), es una tecnología usada ampliamente para comunicaciones controlador a controlador y controlador a servidor. Se usan cada vez más en el segmento de la automatización de entrada/salida (I/O). Una preocupación principal de los ingenieros que quieren usar internet en I/O es el determinismo. Ethernet está basado en la teoría de probabilidades. Los datos son almacenados en paquetes y los paquetes son transmitidos por la network, y sólo son reensamblados cuando llegan a su destino. Si el network está muy ocupado cuando se intenta enviar un paquete, el sistema reintentará enviarlo hasta que encuentre un hueco. Surgen muchas veces problemas en automatización por no habernos planteado estas cuestiones: ¿El paquete estará en el punto I/O en el momento justo para que el dispositivo haga los que está previsto, y en el momento exacto en que está previsto?
Por lo tanto, aunque Ethernet esta cada vez mas implantada en el mundo de la industria, aun ahí ciertos problemas que solucionar y ciertas aplicaciones en las que seria inviable.
A continuación podemos ver algunas de las aplicaciones reales en la que es utilizada Ethernet:
• Sistema de alerta de incendios municipal sobre WAN
Los puestos de control de incendios suelen estar interconectados mediante protocolos basados en RS-232 o RS-485. Es la configuración típica cuando los edificios están diseminados por un gran campus universitario o una ciudad entera.
Casi todas las empresas y organizaciones grandes tienen una red Ethernet entre los edificios. Cuando esta red IP se utiliza para interconectar todos los edificios, se puede utilizar una unidad para encapsular y transmitir los datos serie por la red. Esta solución hace innecesario disponer de una red dedicada. El adaptador soporta una lista IP que se puede configurar para enviar paquetes a diferentes subredes aunque la red esté dividida mediante routers.
• Sistema de control de acceso multiemplazamiento
Se trata de la utilización de la red IP existente para suministrar enlace serie. La mayoría de los sistemas de acceso utilizan transmisión de datos serie y redes dedicadas para cotejar los datos de entrada. Cuando los edificios o las empresas se expanden, necesitan más sistemas de acceso o interconectar los sistemas de acceso múltiples, sobre todo cuando los edificios no están cerca unos de otros.
En lugar de instalar un enlace de comunicación dedicado, la red Ethernet existente se puede ampliar utilizando el router configurado para comunicación TCP. Gracias al software redirector de puertos COM instalado en el PC, que crea un puerto serie virtual, el PC se puede comunicar con múltiples dispositivos serie sin necesidad de actualizar el software de control ni el hardware del PC.
• Conexión de equipos propietarios a una red SCADA
Uso de TCP/IP en Ethernet para transmitir datos serie.
• Supervisión y control de
Uso de Ethernet para cubrir grandes distancias.
• Planta de tratamiento de agua
Red Ethernet en anillo redundante.
Las especificaciones de los equipos de control de una planta de tratamiento de agua exigen una red de comunicaciones fiable y tolerante a fallos.
La planta del ejemplo consta de varios edificios y salas que se utilizan para distintos procesos. Dado que todos los equipos de proceso eran compatibles con Ethernet, la decisión de utilizar el switch Lynx 308 para red en anillo a la hora de crear una red redundante y tolerante a fallos no resultó difícil de tomar. Entre los edificios se instalaron cables de fibra óptica multimodo, ya que el recorrido mayor era de solamente 2 km. La topografía de la planta facilitaba además la instalación de una estructura en anillo. Si se produce un fallo en la fibra óptica o un cable resulta dañado, el sistema de comunicaciones lo detecta automá-ticamente y se recupera del fallo en 20 ms. De ese modo, el sistema de procesos no se ve afectado.
• Sistema de parada de triple seguridad
Red Ethernet en estrella. En las refinerías de petróleo e instalaciones similares a menudo se emplean sistemas de parada de triple seguridad para evitar fallos en los sistemas de control que pueden resultar desastrosos. Estas complejas estructuras de comunicaciones no deben tener puntos de fallo individuales, por lo que es preciso instalar equipos adicionales que aumenten la protección contra los fallos. En estos casos no se necesita una estructura en anillo redundante, puesto que el sistema ya se ha diseñado con este tipo de redundancia en mente.
Las redes en estrella se utilizan en situaciones en las que la topografía de la instalación solamente permite conducir el cable por determinados puntos, impidiendo la creación de un anillo.
• Sistema de seguridad en estación de bombeo
• Comunicaciones Ethernet en un generador eólico
• Sincronización horaria en plataformas de alta mar
http://www.rediris.es/difusion/publicaciones/boletin/46-47/ponencia9.html [9]
http://www.revistaitnow.com/bajar.php?a=td10/p/ni/telssa_la_evolucion_del_ethern... [10]
http://www.dea.icai.upco.es/sadot/Comunicaciones/avanzadas/ethernet-Damien%20Mot... [11]
http://www.slideshare.net/edvinogo/ethernet-4178087 [12]
http://www.textoscientificos.com/redes/ethernet [13]
http://www.angelfire.com/planet/netstechnology/ethernet.htm [14]
http://www.monografias.com [15]
http://www.zator.com/Hardware/H12_4.htm [16]
http://es.kioskea.net/contents/technologies/ethernet.php3 [17]
http://www.consulintel.es/Html/Tutoriales/Lantronix/guia_et_p1.html [18]
http://pclt.cis.yale.edu/pclt/COMM/ETHER.HTM [19]
http://es.scribd.com/doc/81407637/4/Protocolo-CSMA-CD [20]
http://docente.ucol.mx/al970310/public_html/CSMA.htm [21]
http://www.mitecnologico.com/Main/Ethernet [22]
http://todoproductividad.blogspot.com.es/2008/04/aplicacin-de-ethernet-en-un-ent... [25]
http://www.monografias.com/trabajos/protocolotcpip/protocolotcpip.shtml [26]
http://es.kioskea.net/contents/internet/tcpip.php3 [27]
http://www.gobiernodecanarias.org/educacion/conocernos_mejor/paginas/ethernet.htm [28]
http://www.emagister.com/curso-red-instalacion-fisica/tipos-ethernet [29]
http://www.halconia.org/escolar/redes/04020100.html [30]
http://www.ecured.cu/index.php/Ethernet [31]
Enlaces:
[1] http://uhu.es/antonio.barragan/content/cables
[2] http://uhu.es/antonio.barragan/content/transceptores
[3] http://uhu.es/antonio.barragan/content/tarjeta-red
[4] http://uhu.es/antonio.barragan/content/repetidores
[5] http://uhu.es/antonio.barragan/content/hub
[6] http://uhu.es/antonio.barragan/content/puente-o-bridge
[7] http://uhu.es/antonio.barragan/content/conmutador-o-switch
[8] http://uhu.es/antonio.barragan/content/router
[9] http://www.rediris.es/difusion/publicaciones/boletin/46-47/ponencia9.html
[10] http://www.revistaitnow.com/bajar.php?a=td10/p/ni/telssa_la_evolucion_del_ethernet.pdf
[11] http://www.dea.icai.upco.es/sadot/Comunicaciones/avanzadas/ethernet-Damien%20Mottais.pdf
[12] http://www.slideshare.net/edvinogo/ethernet-4178087
[13] http://www.textoscientificos.com/redes/ethernet
[14] http://www.angelfire.com/planet/netstechnology/ethernet.htm
[15] http://www.monografias.com
[16] http://www.zator.com/Hardware/H12_4.htm
[17] http://es.kioskea.net/contents/technologies/ethernet.php3
[18] http://www.consulintel.es/Html/Tutoriales/Lantronix/guia_et_p1.html
[19] http://pclt.cis.yale.edu/pclt/COMM/ETHER.HTM
[20] http://es.scribd.com/doc/81407637/4/Protocolo-CSMA-CD
[21] http://docente.ucol.mx/al970310/public_html/CSMA.htm
[22] http://www.mitecnologico.com/Main/Ethernet
[23] http://www.westermo.net
[24] http://www.siemon.com
[25] http://todoproductividad.blogspot.com.es/2008/04/aplicacin-de-ethernet-en-un-entorno.html
[26] http://www.monografias.com/trabajos/protocolotcpip/protocolotcpip.shtml
[27] http://es.kioskea.net/contents/internet/tcpip.php3
[28] http://www.gobiernodecanarias.org/educacion/conocernos_mejor/paginas/ethernet.htm
[29] http://www.emagister.com/curso-red-instalacion-fisica/tipos-ethernet
[30] http://www.halconia.org/escolar/redes/04020100.html
[31] http://www.ecured.cu/index.php/Ethernet