[Volkskrant] Datacentra: waar het internet woont

image

Bij internet denken we aan vlug, virtueel en schoon. Maar daarachter gaat een wereld schuil van airco’s, ronkende generatoren en diesel. 

Superstorm Sandy legde niet alleen bomen om, ook websites gingen plat. Grote Amerikaanse websites als Gawker, The Huffington Post en een aantal populaire New Yorkse blogs waren door stroomgebrek niet meer bereikbaar. Normaal gesproken kan de noodgenerator op het dak genoeg stroom opwekken om in downtown Manhattan het datacentrum te laten draaien. Maar omdat de kelder onder water was gelopen, kon het pompsysteem de diesel voor de generator niet alle zeventien verdiepingen omhoog pompen. 25 vrijwilligers vormden daarop een menselijke keten in het trappenhuis van het gebouw. Dagenlang tilden ze in ploegendiensten emmers diesel naar boven die door de laatste persoon in het noodaggregaat werden gegoten. Het was genoeg om de computers in het datacentrum van stroom te voorzien en de websites die daar zijn gestationeerd in de lucht te houden tot het stroomnet weer operationeel was.

De anekdote wordt beschreven op de site van de Amerikaanse blogaanbieder Squarespace. Het zijn de momenten waarop je je realiseert dat het internet niet feilloos is. Het is een complex systeem van glasvezelkabels, knooppunten en datacentra. Een simpel mailtje naar je buren kan duizenden kilometers afleggen voordat het aankomt. Het is, gezien de schaal van de infrastructuur, eigenlijk bijna ongelofelijk dat websites niet vaker uit de lucht zijn.

Neem Google. Het bedrijf indexeert 20 miljard webpagina’s per dag om actuele zoekresultaten te kunnen bieden. Het zorgt ervoor dat 425 miljoen Gmail-gebruikers gratis kunnen e-mailen. Dat er elke minuut 72 uur aan video geupload kan worden naar YouTube. En dat er 100 miljard zoekopdrachten per maand gedaan kunnen worden opdrachten die meestal al resultaat opleveren voordat je klaar bent met typen. Alle informatie die we invoeren, komt terecht in datacentra. Datacentra zijn de plekken waar het internet leeft. Maar hoe zien die eruit?

Op het uitgestrekte, winderige terrein dat Amsterdam Science Park heet, zit onder bijna elke putdeksel een wirwar van felgekleurde glasvezelkabels. Omdat Nederland in 1988 als eerste land in Europa in het Science Park werd aangesloten op het internet, trokken onderzoekers er massaal heen. En die hadden internetverbindingen nodig. Zo komt het dat bijna nergens ter wereld de internetdichtheid, vlak onder de grond, zo groot is als hier. En dat betekent: snellere verbindingen. Daarom werkt Amsterdam als een magneet op datacentra.

image

Parkeergarage
Hoewel het hele Science Park vrij lelijk is en datacentra over het algemeen ook de grandeur van een grootstedelijke parkeergarage hebben, ligt het nieuwste gebouw van de Amerikaanse datacentrumgigant Equinix er mooi bij. Het is net af, en ontworpen door Benthem Crouwel architecten (bekend van Schiphol en het Stedelijk Museum). De grote, grijs gestreepte doos steekt af tegen de enorme glazen lobby ernaast. Een beveiliger in de lobby zit achter kogelwerend glas. Toegang tot het gebouw is beveiligd met poortjes met biometrische controle, een zogenoemde secure air lock mantrap en, niet te vergeten, een slotgracht rondom het datacentrum. Maar als je hier eenmaal naar binnen loopt, ben je in één van de vele harten van het internet.

In een strak witte hal ter grootte van een half voetbalveld staan vijf zwarte, stalen kooien. Iedereen kan in het datacentrum zo’n kooi huren en zijn systeem aansluiten op internet. In de kooien staan meestal rekken waarin platte computers, zonder monitor en toetsenbord, zijn opgestapeld. Dat noemen ze servers. In die servers zitten meestal harde schijven. Een van de klanten is Facebook. Op de schijven van dat bedrijf zullen waarschijnlijk foto’s, video’s en status-updates van West-Europese Facebookgebruikers komen te staan. Alle servers van Facebook zijn met elkaar verbonden en uiteindelijk gaat een aantal kabels het plafond in, om door Equinix verbonden te worden met de rest van het internet. Zodat die foto’s, video’s en status-updates door iedereen op te vragen zijn.

Wind en herrie
Als de schuifdeuren ernaartoe opengaan, komen de warmte (in de meeste datacentra is het zo’n 25 graden), wind en herrie als een muur op je af. Behalve beveiliging moeten datacentrumexploitanten twee dingen goed regelen: de koeling en de stroomvoorziening. Bij het verwerken van YouTube-video’s, Facebook-status-updates en, bijvoorbeeld, het bezoeken van Volkskrant.nl, moeten de servers zo hard werken dat er veel warmte wordt gegenereerd.

Door kleine gaatjes in de vloer wordt koele lucht naar boven geblazen. ‘Aan de hoeveelheid wind en het geluid kun je voelen hoe druk het op dat moment op het internet is’, legt Derek Jager van Equinix uit. Tijdens de lunchtijd en aan het einde van de werkdag moet de koeling harder werken om het toegenomen internetverkeer te verwerken.

Als er geen koeling in het datacentrum zou zijn, zou de temperatuur in het complex snel de 50 graden bereiken en zou de apparatuur gaan roken. Daarom eisen huurders in het datacentrum dat er 99,999 procent van de tijd koeling is.

image

Vliegwiel
Om aan die eis te voldoen, gaan de uitbaters van datacentra ver. Als de stroom ook maar even uitvalt, neemt een trits batterijen het automatisch over. Die kunnen een stroomstoring een paar minuten opvangen. Sommige datacentra hebben daarnaast een vliegwiel: een enorm betonnen blok dat 24 uur per dag op hoge snelheid ronddraait. Als de stroom uitvalt, blijft dat vliegwiel een tijdje uitdraaien. Een dynamo wekt daarmee genoeg stroom op om het datacentrum draaiende te houden terwijl de generatoren opstarten. Die generatoren in het nieuwste Amsterdamse datacentrum van Equinix staan er tien zijn elk zo groot als een flinke bestelbus. Met de 150 duizend liter diesel die altijd klaarstaat, kan er 36 uur worden doorgedraaid zonder stroomvoorziening van buitenaf. En zelfs als die uitzonderlijke situatie zich voordoet, is er nog een back-up: er zijn contracten met twee concurrerende bedrijven die de tanks onder het gebouw kunnen vullen om de generatoren te voeden.

Waar het datacentrum in Brooklyn het moest hebben van menskracht, draaide dat in New Jersey, van blogdienst Tumblr, tijdens Sandy op generatorstroom. De Nederlander Arnoud Vermeer, die daar werkt: ‘Honderd uur lang draaiden we volledig op generatoren. Elke dag kwam er een vrachtwagen met diesel en tijdens de laatste dagen werd dat steeds spannender omdat de brandstof schaars werd.’ Inmiddels is de stroom weer aangesloten.

Nog niet zo lang geleden hadden alle datacentra chillers, grote airconditioners. Equinix werkt daar niet meer mee in het nieuwe datacentrum. ‘Onder het complex hebben we putten van 160 meter diep geslagen’, legt Jager uit. ‘In de winter wordt de koude buitenlucht in de grond opgeslagen. Die wordt in de zomer weer opgepompt om het datacentrum mee te koelen. Dat is veel zuiniger.’ De overtollige warme lucht wordt onder de grond naar de nabij liggende gebouwen van de Universiteit van Amsterdam gebracht. Die helpt in de winter de gebouwen te verwarmen.

Overvloedig stroomgebruik
De obsessie van datacentrumuitbaters met duurzaamheid is vrij recent. Het zal niet toevallig zijn dat de prijzen voor het afnemen van stroom de laatste jaren flink gestegen zijn en de kritiek op het energiegebruik van datacentra steeds luider wordt. Eind september schetste The New York Times een ontluisterend beeld van het overvloedige stroomgebruik van datacentra. De drie miljoen datacentra in de wereld gebruiken opgeteld 30 miljard watt. Ongeveer de output van dertig nucleaire stroomcentrales, 1 tot 2 procent van het totale, wereldwijde stroomgebruik. Het zijn cijfers die niet stroken met het beeld dat veel mensen hebben bij internetbedrijven: snel, efficiënt, virtueel en dus beter voor het milieu.

Google zegt dat het hier wat aan probeert te doen. Het is moeilijk dat te controleren. Googles infrastructuur wordt wel gezien als de meest geavanceerde operatie op het web. Het bedrijf heeft een netwerk aan datacentra (waaronder in de Eemshaven, in Groningen) en bezit grote hoeveelheden glasvezelkabel. Maar Googles motto om de wereld transparant te maken, geldt niet voor de eigen netwerkinfrastructuur. Daar doet het bedrijf enorm geheimzinnig over. Buitenstaanders mogen niet naar binnen in Googles datacentra. En als Google een kooi heeft gehuurd in een datacentrum van een derde partij, blijft het licht uit. Als technisch personeel van Google onderhoud wil plegen aan de servers, doen ze mijnwerkershelmen met een lampje op, schreef het Amerikaanse magazine Wired.

Het zelf bouwen van efficiënte, zuiniger datacentra is tegenwoordig een van Googles kerntaken. In het enorme datacentrum in het Belgische Mons bijvoorbeeld, wordt de ruimte een groot deel van het jaar gekoeld met buitenlucht. En in een Google-datacentrum in Georgia in Amerika wordt toilet- en douchewater uit het nabijgelegen dorp als koeling gebruikt. Ook wordt het steeds gebruikelijker water uit de zee of een rivier te gebruiken om datafabrieken te koelen. Zegt het bedrijf zelf tenminste.

Concurrentievoordeel
Google doet zo paranoïde omdat de snelle, zuinige datatechniek veel geld waard is. ‘We proberen zo open mogelijk te zijn, zonder ons concurrentievoordeel op te geven’, aldus Urs Hölzle, de infrastructuurbaas bij Google tegen Wired. Concurrenten en natuurorganisaties willen dat Google openhartiger wordt, zodat de rest van de markt kan leren van de duurzaamheidsinnovaties. Facebook en Netflix menen daarin het goede voorbeeld te geven. Zij zetten een aantal bouwtekeningen online, waaruit de rest van de industrie vrijelijk technieken kan overnemen.

De vraag naar serverruimte groeit intussen enorm. In het Equinix datacentrum op het Science Park in Amsterdam waren ze al bezig met uitbreiding voordat het gebouw af was. Voor de concurrenten van Equinix geldt dat overigens ook. Telecity, een van ‘s werelds grootste datacentrumboeren, heeft twee nieuwe datacentra in de planning in ‘metro-Amsterdam’, zoals dat heet.

Equinix heeft alvast een pand van meerdere verdiepingen gebouwd, waarvan er nu maar één in gebruik is op de groei. De voorbereidingen om de slotgracht uit te graven en er nog een datacentrum naast te bouwen, worden ook al getroffen.

image

Inzetje bij het stuk:

In de laatste vijf jaar is het aantal internetgebruikers verdubbeld. 90 procent van de huidige hoeveelheid data op de harde schijven van servers in datacentra, is in de laatste twee jaar gecreëerd. In 2016 zal er elke seconde liefst 20 duizend uur aan videocontent het internet overgaan. Daarom wordt het aantal datacentra razendsnel uitgebreid.

Comments

comments powered by Disqus

Notes

  1. alexandernl heeft dit geplaatst