¿Por qué Ethernet en UTP tiene un alcance mucho mayor que otros protocolos modernos?

OCuLink, SATA, USB 3 y Displayport proporcionan unos pocos Gbps por par de señalización y están limitados a una longitud de cable de solo un par de metros. Ethernet a través de un cableado comparable proporciona una velocidad comparable, ¡pero 50 veces más larga! Por ejemplo, 10GBaseT sobre cat6a puede hacer 100m. ¿Qué explica esa diferencia extrema?

Estoy preguntando en electrónica en lugar de redes, ya que este es un problema de enlace físico, no un problema de redes.

EDITAR: aunque la latencia no parece ser la explicación, la gente lo mencionó, lo que me dio una idea: ¿por qué no todos los protocolos cableados de alta velocidad incorporan una medición de latencia en la conexión (con un límite superior de 200 ms para todos propósitos prácticos), y agregar un número fijo de ciclos de reloj a esa medida para establecer el valor de tiempo de espera de reintento para la duración de la conexión? Entonces, el tiempo de espera nunca se establece más alto de lo necesario, sin embargo, todas las conexiones que van desde un metro hasta miles de kilómetros se pueden acomodar sin estar limitadas solo por la latencia. La medición y cancelación de ruido, la tasa de adaptación, etc. para lograr una alta velocidad a larga distancia son más complejas e innecesarias para protocolos diseñados para unos pocos metros o tal vez unas pocas decenas de metros, pero la medición de la latencia parece muy simple y vale la pena. y evitaría límites de latencia arbitrarios como en USB 2 pero sin requerir la estandarización en un límite de tiempo de espera excesivamente alto. Solo requiere un ping, luego cuenta los ciclos del reloj hasta que se escucha una respuesta. (Para evitar malentendidos tontos: no me refiero a un ping ICMP; me refiero a un ping PHY a PHY).

Compare el precio de una NIC 10GBaseT con el de un controlador SATA. Incluso teniendo en cuenta la economía de escala, 10GBaseT es mucho más costoso de implementar que cualquiera de los otros.
Creo que la diferencia más destacada es que Ethernet incorpora un procesamiento de señales altamente sofisticado.
En su edición, el problema principal es que a nadie se le paga por diseñar el protocolo perfecto. Idealmente, todo usaría transmisión óptica, sin problemas con la conexión a tierra, la separación galvánica y las tasas de bits teóricas extremadamente altas. Sin embargo, luego debe diseñar una serie de protocolos para estar por encima de eso; nuevamente, nunca logrará que todas las empresas e ingenieros estén de acuerdo con el mejor protocolo posible. ¿Por qué no? xkcd.com/927 : por eso... Esto es más realista de lo que podría pensar: cada nuevo estándar es mejor, pero a menudo no necesariamente es compatible con versiones anteriores.
También en su edición, está asumiendo que el protocolo puede lidiar con la latencia. Si puede, no hay razón para medirlo. Encontrará muchos protocolos que ya miden la latencia y básicamente se apagan cuando es demasiado grande. El problema es que las latencias más grandes requieren hardware y código significativamente diferentes para garantizar cosas como la recuperación del reloj, la sincronización correcta de los eventos, etc. Simplemente no vale la pena implementar esto para sistemas que generalmente no necesitarán cables más largos. Es más fácil simplemente ignorar ese caso de uso y restringir el diseño a latencias más bajas.
@RJR: por supuesto, el costo es la explicación para usar transmisión de datos eléctrica en lugar de óptica para corto alcance. La necesidad de modificar la codificación, no solo el valor del tiempo de espera, parece una buena explicación para no molestarse en ajustar el tiempo de espera para tener en cuenta la latencia. Supongo que debería haber hecho mi edición como una pregunta separada.

Respuestas (3)

Primero, la respuesta técnica:
por un lado, USB3 y SATA usan pares trenzados delgados (la especificación USB3 establece que el cable sea "lo más delgado posible", con 26-34 AWG como ejemplo). 10GbE utiliza cuatro pares trenzados sólidos relativamente gruesos (mínimo 23 AWG). Los hilos más gruesos y sólidos crean un área de superficie más grande, lo que a su vez significa una menor resistencia a las altas frecuencias (que viajan sobre nuestras capas del cable debido al efecto piel).

En segundo lugar, SATA está diseñado como una interfaz de disco. No es necesario que pueda superar el rendimiento del disco. USB está limitado por el hecho de que USB no es compatible con DMA (acceso directo a memoria), por lo que para velocidades más altas, la CPU del periférico se convierte en un factor limitante.
Ethernet está diseñado para usar hardware dedicado compatible con una topología multipunto a multipunto. Necesita mantener tasas de datos mucho más altas que las requeridas por una sola estación. Por lo tanto, también es mucho más caro.

Por último, los retrasos se convierten en un factor significativo a estas velocidades. Sin embargo, Ethernet está diseñado específicamente para un medio con pérdidas de alta latencia y, como tal, puede manejar cables largos. (S)ATA es exactamente lo contrario: para ofrecer el máximo rendimiento, la latencia debe mantenerse al mínimo.

En cuanto al costo, ethernet requiere el uso de imanes para la separación galvánica. Esto es importante porque los cables más largos significan que no puede usar una conexión a tierra común entre los sistemas. Dado que los magnéticos (básicamente transformadores) son dispositivos físicos que no se pueden implementar en silicio puro, son costosos. Un Ethernet PHY completo costará un par de dólares como mínimo, mientras que un chip USB se puede fabricar por unos pocos centavos. Para DSL, la historia es similar.

En resumen, el cable no es necesariamente el factor limitante (aunque también están diseñados para costar).

La respuesta no técnica, y tal vez más 'real', es que cada tecnología está diseñada para cumplir con sus requisitos específicos en un momento específico. La capa física es solo una pequeña parte de la historia.
Entonces, ¿por qué uno soporta distancias más largas que el otro? La respuesta es 'porque están diseñados de esa manera'.
Todo se reduce al 'diseño según el costo/requisitos'. La razón principal por la que existen tantos protocolos de transmisión diferentes es porque no hay uno que cumpla con todos los requisitos para todo. Como tal, las empresas diseñan nuevos sistemas que cumplen con todos sus requisitos, pero uno con el otro. Sí, en teoría surgiría un sistema único que cubre el 90% de las necesidades de todos, pero eso significa inmediatamente que las empresas no pueden ganar dinero con sus propios sistemas patentados. Además, todo lo que se te ocurra quedará obsoleto en unos años.

RJR, Wikipedia dice que incluso USB 2 usa un par trenzado, por lo que ciertamente los pares de USB 3 también estarían trenzados. Y parece que los cables USB y cat6 usan un calibre de cable similar, alrededor de 24 AWG.
SATA Express (NVMe o AHCI sobre PCIe) se creó porque SATA era demasiado lento. Y los límites de latencia no explican por qué Displayport está limitado como lo están SATA y USB 3.
Tienes razón, abordaré el par trenzado USB en la respuesta. Displayport no es necesariamente 'limitado': está diseñado según una especificación (con lo que supongo que Apple ahora no está contento, ya que su nueva pantalla retina iMac requería un ancho de banda más alto que el admitido por displayport y thunderbolt. Como tal, pueden No se puede hacer una pantalla externa de retina sin inventar una nueva interfaz).
Tenga en cuenta que el último estándar DisplayPort (1.3, 15 de septiembre de 2014) admite pantallas de 32 Gbps y 5k (5120 × 2880 px).
De hecho, el retraso es una de las partes clave: no puede, por ejemplo, extender una red ethernet drásticamente más allá de su límite diseñado simplemente estableciendo condiciones de señal, ya que las asignaciones de tiempo en el protocolo serían insuficientes. De manera similar, los protocolos destinados solo a unos pocos metros, en general, no tendrían las asignaciones de tiempo para alcanzar distancias de escala de Ethernet.
@Chris Stratton: USB 3 relaja la restricción de latencia de USB 2 y DP no necesitaría una restricción estricta. Sin embargo, ambos tienen un rango mucho más limitado que Ethernet sobre UTP, 50 veces más. La explicación debe ser algo más que la latencia. RjR: quise decir rango limitado, no velocidad de datos limitada.
Todo se reduce al 'diseño según el costo/requisitos'. La razón principal por la que existen tantos protocolos de transmisión diferentes es porque no hay uno que cumpla con todos los requisitos para todo. Como tal, las empresas diseñan nuevos sistemas que cumplen con todos sus requisitos, pero uno con el otro. Sí, en teoría surgiría un sistema único que cubre el 90% de las necesidades de todos, pero eso significa inmediatamente que las empresas no pueden ganar dinero con sus propios sistemas patentados. Además, todo lo que se te ocurra quedará obsoleto en unos años.
Otra razón es que la mayoría de los sistemas tienen algún requisito de compatibilidad con versiones anteriores. SATA se deriva de IDE/ATA, que a su vez se derivó del bus PC ISA, ahora obsoleto. Lo mismo para ethernet; Los conmutadores son compatibles con versiones anteriores con semidúplex 10bT y 100bT. Esto, a su vez, pone límites a los protocolos que los admiten, lo que puede introducir todo tipo de limitaciones, incluida la latencia, el rechazo de ruido, la potencia de la señal, etc.
@RJR: el costo ciertamente lo explicaría, pero entonces, ¿por qué cuesta más? mkeith dijo que "ethernet incorpora un procesamiento de señal altamente sofisticado", pero ¿qué es? ¿Son las múltiples frecuencias portadoras, las tasas adaptativas y la medición y cancelación de ruido que usa xDSL, o algo más? La potencia de la señal lo explicaría, pero ¿la potencia de ethernet es realmente mucho más alta que las demás, para dar cuenta de su ventaja de rango de 50x? La compatibilidad con versiones anteriores no explica los límites de rango de Displayport o USB 3 (no USB 2). La alta potencia y el procesamiento de señales parecen las explicaciones generales más plausibles.
@Porthem ethernet, por ejemplo, requiere el uso de imanes para la separación galvánica. Esto es importante porque los cables más largos significan que no puede usar una conexión a tierra común entre los sistemas. Dado que los magnéticos (básicamente transformadores) son dispositivos físicos que no se pueden implementar en silicio puro, son costosos. Un Ethernet PHY completo costará un par de dólares como mínimo, mientras que un chip USB se puede fabricar por unos pocos centavos. Para DSL, la historia es similar.
@RJR: ¿Puede copiar sus comentarios sobre un mayor costo debido a la separación galvánica y una mayor potencia en su respuesta? Lo marcaré como aceptado.

Como veo en la descripción actualizada y los comentarios recopilados para la pregunta ("¿ Por qué Ethernet en UTP tiene un alcance mucho mayor que otros protocolos modernos? "), el OP está interesado en dos aspectos (y supongo, más en el segundo: -) aquí:

1) el sentido común, que definió como

Estoy preguntando en electrónica en lugar de redes, ya que este es un problema de enlace físico, no un problema de redes.

2) sentido particular, sobre eso dejó escapar en su comentario

... sería bueno poder conectar cámaras web remotas (USB) a unas pocas decenas de metros de distancia para usarlas como cámaras de seguridad baratas, y mover una computadora ruidosa a un armario a 20 m de una pantalla (Displayport).

Por favor, empiece por el segundo aspecto porque me parece más sencillo.

Enlace USB de más de 20 m

No hay problema con un enlace USB de tal longitud. En ese caso, debe usar el llamado "cable de extensión activo" (uno o varios apilados en serie), como este , por ejemplo. Solo puede cubrir un vano de hasta 20 m. Sí, en ese caso necesitas alimentar la cámara remota por separado (es decir, no por el AEC), pero creo que es un pequeño costo adicional por jugar ese escenario. Y sí, es caro (~100 USD/pieza), pero las cámaras objetivo son baratas :-)

Para DisplayPort, también existen AEC, pruebe esto , por ejemplo. También son caros (~100 USD/pieza por el AEC de 15 m de largo referenciado). Pero, según tengo entendido, solo necesita 1-2 piezas y solo una vez durante los próximos 5-10 años sin ruido :-)

En comparación con ellos, un UTP Cat5e de 20 m parece muy barato (~10 USD/uds) y luego magnéticamente, pero una cámara habilitada para Ethernet no lo es en absoluto. Por lo tanto, puede usar la cámara USB barata acoplada con un convertidor de USB a Ethernet (busque en E-Bay, ~5 USD/uds), y el último problema que todavía no podemos resolver aquí es la necesidad de una ruta de alimentación adicional para la cámara. .

Entonces, como puedes ver, tu problema particular tiene solución.

Por qué Ethernet puede...

RJR en su respuesta muestra varias razones técnicas que encuentro falsas ("sofisticación", "dma-less", "costo") pero no es el caso, y secundario --- es el caso.

La razón principal es simple y es... (ta-da:-) el poder necesario para habilitar el enlace.

Mira los números:

100BASE-TX: Micrel KS8041 PHY (with xformer)  ....
  for about 200 Mbps (both dirs),  consumes  about 0.33 W,  i.e.  ~3 mW/m @ 100 m span

1000BASE-T: Micrel KS9021 PHY (with xformer)  ....
  for about 2 Gbps (both dirs),    consumes  about 1.12 W,  i.e. ~10 mW/m @ 100 m span

USB 2.0: FTDIChip FT232R IC (self feed only)  ....
  for about 480 Mbps (both dirs),  consumes  about 0.08 W,  i.e. ~15 mW/m @ 5 m span

G.SHDLS: Infinion SOCRATES IC (with hibrid)  ....
  for up to 4 Mbps (both dirs),    consumes  about 2.00 W,  i.e.  ~2 mW/m @ 1000 m span 

¿Cómo podría interpretarse esto? Yo prefiero eso:

  • si quieres una velocidad más rápida, necesitas más potencia,

  • si quieres una distancia más larga, también necesitas más potencia,

  • si desea un margen SNR más amplio, necesita más potencia nuevamente,

PERO:

  • de cualquier manera, mantenga su tecnología energéticamente eficiente.

En otras palabras: ¿Por qué USB gana distancias largas de mesa? porque es ineficiente desperdiciar 4(12) veces más energía cuando es posible trabajar con solo 0.08W. ¿Y por qué Ethernet gana la construcción de largas distancias? porque nuevamente, es ineficiente desperdiciar 5 (2) veces más energía cuando es posible trabajar a solo 0.25 (2.5) de la velocidad inicial.

Todas las demás razones, si las hay, son únicas y únicamente secundarias.

PD Por eso, mi opinión sobre la "falsedad" de las razones tecnológicas de RJR para no estar desnudo, prometo (tratar de) describirlo de manera informativa como pueda si alguien aborda una pregunta separada al respecto (no lo explicaría aquí porque es lejos del alcance de la pregunta del OP).

PPS Además, como encontré que mi respuesta anterior fue rechazada, creo que no había explicado la similitud entre 1000BASE-T y xDSL lo suficientemente clara como para que un revisor secundario la entendiera. Por lo tanto, si alguien también hace una pregunta por separado sobre esa similitud, prometo (intentar) responderla también.

100BASE-T2 y -T4 (no -TX), 1000BASE-T, 10GBASE-T PHY utilizan esquemas de codificación que funcionan como xDSL. Las xDSL son tecnologías de última milla y fueron diseñadas para alcanzar distancias de kilómetros y más.

SATA, PCI-E, USB 3.0 utilizan esquemas de codificación muy similares a las familias BASE-X de Ethernet (100BASE-X, 1000BASE-X, 10GBASE-X), que son mucho más simples que las subcapas físicas Ethernet similares a xDSL enumeradas.

Teóricamente, SATA, PCI-E, USB-3.0 podrían mapearse en las capas Ethernet PCS/PMA similares a xDSL enumeradas, pero... ¿para qué? Todos ellos son una especie de periféricos (autopistas de datos), no de telecomunicaciones.

Ok, mkeith dice que es porque el procesamiento de señales de ethernet es sofisticado, DoxyLover dice que 10GBaseT es más costoso (tiene sentido si el procesamiento es más sofisticado), y alex respondió con detalles sobre el procesamiento de señales más sofisticado. Suponiendo que sea correcto, esta es exactamente la explicación que estaba buscando. Pero, ¿por qué se rechazó la respuesta de Alex? Para responder a la pregunta de alex (¿para qué?), sería bueno poder conectar cámaras web remotas (USB) a unas pocas decenas de metros de distancia para usarlas como cámaras de seguridad baratas y mover una computadora ruidosa a un armario a 20 m de distancia. desde una pantalla (Displayport).
(un día después)... no hay explicación del voto negativo en la respuesta de alex, así que acepto su respuesta.
Esto es una completa tontería. El esquema de codificación apenas guarda relación con la distancia. Todos los esquemas modernos de transmisión digital, aparte de los más triviales, tienen algún tipo de corrección de errores. La forma en que xDSL alcanza su distancia es mediante el uso de múltiples frecuencias, mediciones activas de ruido y la adaptación de las tasas de modulación para cada frecuencia y (para la mayoría de los sistemas modernos que usan vectorización) técnicas de cancelación de ruido. Nada de esto tiene nada que ver con el esquema de codificación (que es la codificación Trellis básica).
Además, DSL y Ethernet NO utilizan el mismo esquema de codificación. Ethernet usa PAM (Modulación de amplitud de pulso) o NRZ, mientras que xDSL usa QAM (Modulación de amplitud en cuadratura) que tiene en cuenta tanto la fase como la amplitud de la señal.
@RJR - SE no me dijo que agregaste comentarios; Los acabo de notar ahora. No acepté la respuesta de alex. Si gigabit Ethernet (y superior) sobre UTP no utiliza múltiples frecuencias portadoras, tasas adaptables y medición y cancelación de ruido, entonces todavía no puedo encontrar una respuesta plausible a mi pregunta, aparte del "procesamiento de señal altamente sofisticado" general de mkeith .