El equilibrio de carga es el proceso mediante el cual el tráfico entrante del protocolo de Internet (IP) se puede distribuir entre varios servidores. Esto mejora el rendimiento de los servidores, conduce a su uso óptimo y asegura que ningún servidor se vea abrumado. La práctica es particularmente importante para las redes ocupadas, donde es difícil predecir la cantidad de solicitudes que se enviarán a un servidor.
Por lo general, se emplean dos o más servicios web en un esquema de equilibrio de carga. En caso de que uno de los servidores comience a sobrecargarse, las solicitudes se reenvían a otro servidor. Este proceso reduce el tiempo de servicio al permitir que varios servidores manejen las solicitudes. El tiempo de servicio se reduce mediante el uso de un equilibrador de carga para identificar qué servidor tiene la disponibilidad adecuada para recibir el tráfico.
El proceso, en general, es sencillo. Se envía una solicitud de página web al equilibrador de carga, que reenvía la solicitud a uno de los servidores. Ese servidor responde al equilibrador, que a su vez envía la solicitud al usuario final.
El equilibrio de carga permite que el servicio continúe incluso en caso de tiempo de inactividad del servidor debido a una falla del servidor o al mantenimiento del servidor. Si una empresa está utilizando varios servidores y uno de ellos falla, su sitio web u otros servicios seguirán estando disponibles para sus usuarios, ya que el tráfico se desviará a los otros servidores de la granja de servidores. En Global Server Load Balancing (GSLB), la carga se distribuye a granjas de servidores geográficamente dispersas, según su carga, estado o proximidad.
Existen varios métodos mediante los cuales se pueden equilibrar las cargas. Si los servidores son similares en especificaciones de hardware, los métodos Perceptivo (que predice el servidor en función de los datos históricos y actuales) y el Tiempo de respuesta más rápido pueden ser los mejores para usar. Por otro lado, si las especificaciones de hardware son diferentes, el método Weighted Round Robin, que asigna las solicitudes a los servidores a su vez de acuerdo con sus pesos, puede ser una mejor solución porque puede asignar más solicitudes al servidor que puede manejar un mayor volumen.