Una de los problemas a los que no he tenido la oportunidad de enfrentarme, de manera profesional, es manejar carga de servidores web, así que esta semana me he dispuesto a montar un sistema para balancear dos sitios ASP.net alojados en Azure. En este artículo veremos cómo ponerlo en marcha. Ha sido una aventura muy interesante, así que te invito a que sigas leyendo.
La arquitectura
Últimamente tenemos muchas capas de servicios que nos abstraen de la lógica necesaria para todo esto: los Azure Websites pueden escalar automáticamente, Azure proporciona su propio balanceador de carga a través del componente Traffic Manager, y Amazon tiene su Elastic Load Balancer.
Para este escenario, sin embargo, quería montarlo de manera un poco más artesanal, y esta es la arquitectura:
- Dos Azure Websites diferentes, uno alojado en North Europe y otro en West US.
- Una máquina virtual, con Linux (aquí meteremos el balanceador de carga) alojada en East Asia.
¿Por qué Linux? Linux tiene una gran importancia en la actualidad en el área de servidores. Llevaba tiempo sin trabajar con él y además parecía divertido combinar las diferentes plataformas.
Identificando las instancias
Un detalle que puede pasar desapercibido si vamos a nuget.org, es que en el pie de página identifican el servidor en el que estamos (You are on XXXX), con lo cual, si refrescamos la página, veremos otro servidor.
Para esta prueba sería muy útil saber qué servidor está sirviendo los contenidos, así que lo primero que haremos será crear un proyecto por defecto de ASP.net, y sustituir la acción Index de HomeController por:
public ActionResult Index() { ViewBag.Title = "Home Page"; ViewBag.ServerName = System.Environment.MachineName; return View(); }
Por otro lado sustituimos el código de Index.cshtml (la vista) por:
<div class="jumbotron"> <h1>Load balancing testing</h1> <p class="lead">You are on @ViewBag.ServerName</p> </div>
El resultado (en local) es este:
Una vez que tenemos nuestro sitio funcionando, el siguiente paso es subirlo a dos servidores diferentes, que son en este caso:
Cada máquina tiene un identificador diferente, de esta manera, cuando hagamos el balanceo de carga, podremos saber en qué máquina estamos.
Agregando el balanceador
Para el balanceador he optado por un Ubuntu Server 12 hospedado en una máquina virtual también en Azure. Una de las cosas que no debemos olvidar es abrir el puerto 80 para poder recibir tráfico normal de Internet (para este ejemplo dejamos de lado temas relacionados con HTTPS, certificados SSL y similares). Con Linux tenemos muchas opciones. Estuve probando las siguientes:
Fair
Es una opción muy sencilla para empezar, pero tiene un problema, ya que necesita un componente en cada máquina que queremos balancear, lo cual nos limita el radio de acción. Puede que en otra ocasión…
Balance
A diferencia de Fair, no necesita un componente en cada máquina, lo que era un plus. Sin embargo, el hecho de estar basado en comandos y no en configuración no me acababan de convencer. Finalmente, no pude hacerlo funcionar por problemas de puertos, permisos y otros.
HAProxy
HAproxy es, según he podido leer, el balanceador más completo y configurable. Funciona mediante un fichero de configuración y necesita direcciones IP fijas, ya que, según los ejemplos, está pensado para que los servidores a balancear estén en la misma red. Después de varios intentos, no conseguí que el balanceador funcionara, así que desistí.
Apache
Por último, descubrí que Apache tiene un módulo específico para proxy y balanceo, que se parecía bastante a lo que necesitaba. Aunque parezca matar moscas a cañonazos, al final resultó ser bastante fácil de configurar.
Instalando y configurando Apache
El primer paso es instalar Apache en nuestro sistema:
sudo apt-get install apache2
El siguiente paso es habilitar los componentes necesarios para el balanceador:
sudo a2enmod proxy sudo a2enmod proxy_http sudo a2enmod proxy_balancer
Una vez tenemos activados todos los componentes, debemos escribir la configuración al final (justo antes de la directiva </IfModule>) de /etc/apache2/mods-available/proxy.conf:
<VirtualHost *:80> ProxyRequests off <Proxy balancer://mycluster> # WebHead1 BalancerMember http://scaledemo7844.azurewebsites.net:80 # WebHead2 BalancerMember http://scaledemoamerica.azurewebsites.net:80 Order Deny,Allow Deny from none Allow from all ProxySet lbmethod=byrequests </Proxy> ProxyPass / balancer://mycluster/ </VirtualHost>
Finalmente reiniciamos el servicio:
sudo apache2 restart
Si todo ha ido bien (y espero que sí), podemos acudir a http://ubuntubalancer.cloudapp.net/ (actualmente offline), donde accederemos indistintamente a cualquiera de las dos instancias y podremos ver su identificador.
Conclusiones
En este artículo hemos visto cómo podemos escalar nuestra página y usar un balanceador intermedio para gestionar las peticiones. Es un primer paso y todavía quedaría mucho por hacer. En el próximo artículo de esta serie, veremos cómo compartir la sesión entre las diferentes páginas que componen nuestro pequeño cluster.
Enlaces Interesantes:
- En el blog de RackSpace: Load balancing with Apache