Icono del sitio Los Habitantes de Kewlona

Los servidores de Google

Google

bfishadow en Flickr

El fin de semana pasado, un ex-empleado de Google comentaba en su blog que la tecnología sobre la cual se sustentaba el buscador, y otros servicios del gigante de Mountain View, estaba obsoleta. Independientemente de que tenga razón o no la tenga, no es lógico que constantemente se estén cambiando los cimientos de la arquitectura de un sistema que, además, funciona tan bien, sino que son proyectos que se planifican con tiempo y se ejecutan cuando “se toca techo” y es necesario dar el salto tecnológico. De hecho, Google, en estos años, ha realizado grandes saltos tecnológicos. La historia de Google se remonta a 1998, cuando Larry Page y Sergey Brin, estudiantes de doctorado, realizaban sus tesis, precisamente, sobre algoritmos de búsqueda. En aquella época de Stanford, Larry y Sergey montaron la primera infraestructura que soportó a su buscador, la cual alojaron en el garaje de Susan Wojcicki (que se los alquiló). La primera arquitectura de Google era una composición heterogénea compuesta por:

El siguiente paso de Google, en 1999, fue el del lanzamiento de su primer servidor “de serie”, formado por dos routers HP y 80 procesadores dispuestos en un único chasis. Este primer servidor respondió a un diseño original de Google, que intervino en el proceso completo (diseño y producción), no adquiriendo solución alguna de alguno de los fabricantes del mercado.

Lo que pasó desde este servidor, hasta 2009, prácticamente es bastante desconocido. De hecho, decimos 2009 porque fue cuando Google decidió desvelar el secreto de sus servidores. Los centros de datos de Google están formados por cientos de contenedores (como los de transporte de mercancías) que alojan, a su vez, cientos de servidores que, como era de esperar, también son diseñados y construidos por Google. Estos servidores, que ocupan 2 unidades de rack, llevan dos procesadores (Google utiliza procesadores tanto de Intel como de AMD), dos discos duros y 8 slots de memoria RAM (en unas placas base fabricadas por Gigabyte). Sin embargo, lo más llamativo es que, además de su fuente de alimentación, cada uno de estos servidores lleva una batería de 12v, de manera que en caso de interrupción del suministro, cada servidor funcionaría de manera autónoma. Una batería de 12v es mucho más barato (y fácil de mantener) que una compleja instalación de un SAI o un grupo electrógeno, además de ser mucho más sostenible. Con este tipo de arquitectura modular, Google habría logrado escalar sus centros de datos en dos dimensiones. Por un lado, tiene un grid de servidores apilados dentro de un contenedor. Por tanto, suponiendo que la unidad mínima sea el servidor, un grupo de servidores formarían un contenedor y, a su vez, un grupo de contenedores formaría un centro de datos. El hecho de usar contenedores, realmente, no es nada nuevo puesto que otros fabricantes también lo ofertan, normalmente, como soluciones de respaldo o como centros temporales (de fácil transporte). Sin embargo, para Google es su forma de distribuir los servidores.

Imágenes: Bit Rebels, Computer History, Cnet y Data Center Knowledge

Salir de la versión móvil