BandaAncha

  • 🔍 en 📰 artículos ⏎
  • 🔍 en 💬 foros ⏎
  • 🔍 en 👇 este 💬 foro ⏎
  • 🔍 en 👇 este 💬 tema ⏎
Regístrate Regístrate Identifícate Identifícate

¿Cuál es la diferencia entre ancho de banda y frecuencia explicado de forma sencilla?

Idonotwannabefamous

Muy buenas comunidad, creo que soy un poco corto de mente, porque estoy intentando entender la diferencia entre ancho de banda y la frecuencia y no consigo entenderlo. He usado hasta ChatGPT, pero no hay forma.

Voy a poner algunos ejemplos que no me quedan claros a ver si alguien me los soluciona, de antemano muchas gracias a todos.

Si tengo un cable Cat6 que solo soporta un ancho de banda de 1 Gbps, donde pinta la frecuencia aquí, si se supone que por el cable va 1 Gbps, ¿no?

ChatGPT me puso el ejemplo de una tubería de 10 cm de diámetro de longitud vs una con 5 cm de diámetros; habiendo un grifo que expulsa agua a 10 litros por segundo (pongamos esto como base, no como máximo). Según expresó ChatGPT, la tubería con un diámetro mas largo pasará el agua más rápido que la que tiene el diámetro mas corto, y digo yo, si el agua cae a la misma velocidad y el grifo tiene la boquilla del mismo tamaño que el diámetro de la tubería de 5 cm, da lo mismo que tengas una tubería de 10 cm como si es diez metros, si con esos 5 cm entra todo el agua que sale del grifo no va a llegar antes a su destino. A lo mejor estoy equivocado.

Por favor, que alguien me aclare la duda y lo siento si suena a algo de primaria. Espero que nadie se dé por ofendido.

PD: Lo que me está liando es que ambos se miden en segundos, es decir: 1 Gbps de ancho de banda es un gigabit por segundo y 250 Hz es la frecuencia medida en segundos también, pero si ya tengo el paquete que viaja a 1 Gbps, la frecuencia sigo sin entender del todo a donde aplica. Según tengo entendido la frecuencia es la que se usa para modular los paquetes transmitidos eléctricamente, es decir: que en un pulso eléctrico cabe 1 Gbps. Es que no lo estoy entendiendo perdón xD.

Catfluoride
1

Una frecuencia es "cuantas veces pasa algo en un determinado tiempo" y no se mide en segundos (s), sino en s^-1 (es decir, 1/s=Hz, hertzios).

Dicho esto, el ancho de banda es "cuántos datos pasan por segundo" y tampoco se mide en segudon, más bien en Gbit/s o Mbit/s. De hecho, ya "me quejé"en un comentario anterior de que el en lenguaje común se use simplemente "Mb" para indicar el ancho de banda de una conexión, ya que se deja de lado una parte de la unidad de medida (1/s) y como físico me saca algo de mis casillas.

Ahora bien, yo no soy un experto de redes, ni mucho menos. Pero tengo entendido que la información se transmite en trocitos de un determinado tamaño fijado. Supongo entonces que para tener un ancho de banda elevado (es decir, muchos datos que pasen por segundo por tu cable, para fijar ideas), necesitas muchos pequeños trocitos por segundo, es decir una elevada frecuencia de paquetes. Es decir, si el tamaño del trocito siempre es el mismo, a más frecuencia, más ancho de banda.

En realidad creo que todo es mucho más técnico y si alguien quiere precisar mejor lo que he escrito, se lo agradezco.

🗨️ 5
Weikis

Me acuerdo que me lo dijistes xD. Te sangraban los ojos al leer Mb/s y que debería poner Mbps. De todas formas sigo usando Mb/s. xD.

Lo de los trocitos es el MTU asignado que indica cuantos bits entran dn cada comunicación. Si que cuanta mas frecuencias mas segmentos se envian y por ende mas caudal. De ahí también importa la longitud del cableado, las perdidas, el ruido y resistencia por el material del cableado. A mayor frecuencia mas exigencias por eso el cable cat 6a va mejor para las conexiones multigigabit que el 5e.

🗨️ 2
Catfluoride

Mb/s es correcto. Lo que "está mal" es indicar el ancho de banda en MB (sin el /s). Sería como indicar la velocidad en km, en lugar de km/h.

Pemobil

La p de Mbps significa "per" ó "por". Lo que es lo mismo que "/". En el Sistema Internacional de Unidades SI no está previsto utilizar la letra "p". Sólo "/".

km/h y nunca kmph. En EEUU normalmente no le hacen mucho caso al Sistema Internacional de Unidades SI por lo que allí Mbps se utiliza más. Y mph (miles per hour).

Idonotwannabefamous

Lo dije más o menos para que se entendiese… Perdona por las molestias

Pemobil

Para calcular la frecuencia de una señal, hay que medir el tiempo entre dos picos. En el caso de señales binarias 1 corresponde al pico y 0 correspinde al valle.

Entonces en una secuencia 101010, esa distancia es igual a la duración de dos bits (10). Lo que quiere decir que en una transmisión binaria la frecuencia más alta es la mitad del ancho de banda. Para 1 Gb/s la frecuencia máxima sería 0,5 GHz que es lo mismo que 500 MHz.

Pero como en Ethernet muchas veces se codifica más que un bit en una unidad del tiempo, así las frecuencias que necesita pasar un cable no tienen que ser tan altas. Cada velocidad de Ethernet (10M, 100M, 1G, 10G) utiliza otro tipo de codificación, por lo que para cada una la frecuencia que necesita pasar el cable hay que calcularla de otra manera. Si te interesan tantos detalles, busca en Wikipedia.

Guillermoelectrico

Primero antes de nada, busca lo que es un Baudio, y así podrás entender la relación entre frecuencia y velocidad de transmisión.

También sería bueno que buscases información sobre que es la codificación 8b/10b o mejor la manchester. Para que veas como la frecuencia y la velocidad de transmisión, van muy relacionadas.

Simplificando mucho, la frecuencia es la cantidad de señales eléctricas que puedes transmitir por un cable y la velocidad o ancho de banda, es la cantidad de símbolos o información que puedes transmitir a X señales eléctricas por segundo.

Imagina una persona que es capaz de escribir 1000 caracteres por segundo, eso sería la frecuencia. Pero depende del idioma usado (codificación) podrá mandar más o menos palabras por segundo (no es lo mismo el ruso, que el chino, que el finés que el el inglés o el español) para decir lo mismo.

Y por un cable no va 1 Gbps, si no que puede transmitir o transportar hasta 1 Gbps a través de señales eléctricas a una determinada frecuencia de transmisión y a una determinada codificación.

Vins
1

Es sencillo…

El modo digital usa unos y ceros, o sí y no, o encendido y apagado o lo que sea pero es un sistema binario.

Para tener suficiente información se usan 8 bits (8 dígitos del código binario) que es un byte, con esto tienes los caracteres que te salen en el teclado y algunos más.

Esta información se envía a través de ondas, modulándolas, es decir se adjunta la info en las oscilaciones. Se pueden enviar más o menos datos en cada onda según el protocolo empleado.

Cuantos más datos quieras enviar por segundo necesitas más ancho de banda porque la cantidad de información que puedes enviar por cada oscilación es limitada.

El ancho de banda es el ancho de frecuencias (oscilaciones) que se usan para enviar esta información.

Para tener una conexión de 1Gbps (mil millones de bits por segundo) necesitas un ancho de banda de 100 MHz, es decir desde 1 hasta 100 MHz.

Como los cables tienen pérdidas y la potencia de transmisión es limitada este Gbps te llegará hasta 100m de distancia con un CAT 5e

El CAT 6 usa hasta 250 MHz lo que te permite 10Gbps hasta 55 metros y el CAT 6A usa hasta 500 MHz para llegar a 100m, en distancias más cortas podrás enviar más de 10Gbps.

En definitiva el ancho de banda son las frecuencias que usas para poder enviar la información, en el caso del CAT 6 son 250 MHz (de 1 o cero coma algo hasta 250).

🗨️ 2
Idonotwannabefamous

En las especificaciones dice que es el Cat 6a el que permite 10 GbE, no el 6

🗨️ 1
Vins

Porque las especificaciones son para distancias de 100m, el 6 también sirve para 10 Gb pero solo hasta 55m

Josh
1

En un cable Ethernet el ancho de banda señala la frecuencia máxima de la señal que inyectándola en un extremo de un cable de 100 m. llegará al otro extremo sin degradarse demasiado. Entre 0 y esa frecuencia máxima, podemos emitir cualquier señal y sabemos que no se atenuará demasiado. Se le llama ancho de banda porque es el ancho de frecuencias usables entre 0 Hz y ese máximo. El cable Cat 5e tiene un ancho de 100 MHz, así que soporta sin problemas la transmisión de señales de entre 0 y 100 MHz.

Luego tenemos el modo Ethernet. 1000base-t transmite hasta 1 Gbps codificando la información binaria en una señal que utiliza frecuencias de entre 0 y 65,2 MHz, así que "cabe" dentro de un Cat 5e holgadamente. Si intentamos usar este mismo cable con 10Gbase-t (10GbE), tratará de codificar su señal usando frecuencias de hasta 400 MHz, verá que llegan muy atenuadas y por tanto corruptas y automáticamente la tarjeta de red negociará a un modo ethernet más lento, pero que "quepa" en el cable.

En la primera sección de este artículo explica la relación entre el ancho de banda en MHz que soporta un cable de par trenzado y el estándar Ethernet con el que puede funcionar, con un gráfico muy aclarador.

🗨️ 5
Idonotwannabefamous

Lo he entendido, lo que ahora no entiendo es porque él Cat5e tiene 100 MHz y el Cat6 tiene 250 si mal no recuerdo (corrígeme si me equivoco) si se supone que con 100 los paquetes de 1000 base-t entran perfectamente… ¿Cuál es el cometido de doblar la frecuencia?

🗨️ 4
Jeronimo17

Eso fue culpa del 1000BASE-TX en.wikipedia.org/wiki/Gigabit_Ethernet#1000BASE-TX que usaba 2 pares a más frecuencia requiriendo cable nuevo y luego ganó 1000BASE-T que empezó a usar 4 pares usando la misma frecuencia en los cables de 100BASE-TX, con lo que solo hizo falta cambiar los equipos no los cables

🗨️ 3
Idonotwannabefamous

¿Me puedes explicar esto de una forma más profunda por favor? Si no te importa.

🗨️ 2
Pemobil
Pemobil
2
Josh
Josh