La palabra latencia viene del inglés y significa retraso. En las redes de datos y las telecomunicaciones, se refiere al retraso en la transmisión de datos entre el emisor y el receptor.
En el sentido literal, latencia significa ocultación o escondite. En general, la latencia se refiere al tiempo que transcurre entre un estímulo y la reacción resultante en diversos ámbitos de la vida. En el campo de la tecnología, y especialmente en la tecnología de redes, la latencia se refiere al tiempo de ejecución de la señal.
El tiempo que tardan los datos en transmitirse desde el origen (emisor) hasta el destino (receptor) se mide en milisegundos. Junto con la tasa de error que se produce durante la transmisión de datos y el ancho de banda, la latencia (también: tiempo de retardo) es uno de los criterios centrales para determinar la calidad de la transmisión de datos o la calidad de la conexión a la red.
La latencia se utiliza clásicamente, por ejemplo, para determinar el tiempo de ping. El tiempo de ping (tiempo de giro del paquete) está formado por los tiempos de latencia que requiere un paquete de datos en el camino de ida y vuelta del emisor al receptor y viceversa.
Así se compone la latencia en la transmisión de datos basada en paquetes
Los paquetes de datos son la carga básica de la comunicación moderna. Por tanto, tanto en Internet por cable como en las redes móviles, la latencia también desempeña un papel decisivo. En principio, cuanto más crítico sea el tiempo de una transmisión de datos, menor debe ser la latencia.
Si bien el retardo apenas juega un papel en la transmisión de un correo electrónico, es aún más importante en aplicaciones en tiempo real como los videojuegos, las conferencias web o la tecnología de sensores en la conducción autónoma. Básicamente, la latencia se compone de diferentes tiempos de latencia o factores de influencia. Entre ellas se encuentran:
- ¿Qué propiedades tiene el protocolo de transmisión?
- ¿Hay colas en tramos individuales de la red?
- ¿Qué tiempo de propagación tienen las señales en el medio de transmisión?
- ¿El paquete de datos está limitado en su recorrido por un determinado ancho de banda?
- ¿Cómo de rápido procesan los componentes de red implicados los paquetes transmitidos?
- ¿Qué tiempo de propagación tienen las señales en el medio de transmisión?
- ¿Hay colas en tramos individuales de la red?
Cómo reducir la latencia
La menor latencia posible es esencial para las aplicaciones en tiempo real del presente y del futuro. El objetivo debe ser, por tanto, reducir la latencia. La forma más eficaz de reducir la latencia es acortar la distancia entre el transmisor y el receptor. Para lograr la llamada baja latencia, hay que evitar enviar datos a medio mundo a menos que sea necesario.
Crear granjas de servidores que estén cerca del emisor y del receptor es, por tanto, una clave para la baja latencia. A ello se suma la ampliación de la red de fibra óptica. Al fin y al cabo, la transmisión alcanza una velocidad de dos tercios de la velocidad de la luz, lo que corresponde a unos 200 kilómetros por milisegundo. Para lograr una latencia de alrededor de 1 ms, la distancia entre el usuario y la granja de servidores no debe superar los 100 km (al menos en teoría).