Google et la Biomasse

Google nous annonce : http://googlegreenblog.blogspot.fr/...

"As part of our quest to power our operations with 100% renewable energy, we've agreed to purchase the entire output of the 240 MW Happy Hereford wind farm outside of Amarillo, Texas."

Google veut très clairement n'avoir que de l'énergie à base de sources renouvelables.

Voici une stratégie qu'il semble bon de suivre, surtout pour les producteurs d'énergies petits ou gros. Si Google le fait, c'est qu'ils sentent le vent tourner.. Surtout à mon avis sur le coût de l'énergie.

Il est préférable de se tourner vers des cycles maîtrises localement, tel que la Biomasse.

Est-ce que nous avons un potentiel en Maurienne ?

Un élément de réponse

Un autre potentiel ? : Les eau grises.. Quand je pense à Saint Julien Montdenis et la hauteur de chute des égouts.. Encore un potentiel d'énergie à utiliser.

Google va sans doute devenir producteur d'énergie.. et finir par vous vendre : son système d'exploitation '(déjà fait)', son moteur de recherche '(déjà fait)', son accès internet (en cours..), son énergie verte (réflexions en cours..)

Visite d'un datacenter Google

Première remarque sur la vidéo.. Tiens c'est quoi ce cache bleu ?

On veut nous cacher le processeur ?

google-serveurs.jpg

Seconde remarque :

C'est quoi ces étiquettes ? sur les deux cartes PCI ?

  • SSD ?

google-serveurs1.jpg

Google donne des détails sur son utilisation d'électricité

La consommation d'énergie est sans doute l'un des éléments principaux de la plupart des industries de 2011.

Vu dans un article du New York Times : Google Details, and Defends, Its Use of Electricity


Illustration le datacenter Google de Hamina en Finlande.

Quel est la consommation de Google ?

260 million watts

Où si vous préférez : 260 MW (Megawatts)

L'exemple choisi dans l'article c'est l'équivalent de consommation de 200 000 foyers.

Mais pour que vous compreniez mieux, je vais choisir un exemple plus local :

Google consomme 30 Megawatts de plus que l'Usine Rio Tinto Alcan de Saint Jean de Maurienne.

Source : http://www.clic-rhonealpes.com/medi...

La petite différente c'est que le chiffre avancé par Google est pour l'ensemble de ses datacenters dans le Monde.

Le PUE de Google

Si on se fie à cette page :

http://www.google.com/about/datacen...

Google a un PUE (Power Usage Effectiveness) de 1.15 :

15 % d'énergie pour refroidir ses datacenter cela fait : 39 Megawatts

une estimation de 2008 : http://techcrunch.com/2008/04/11/wh...

Indique que Google aurait 36 Datacenters dans le monde..

Allez on se dit qu'ils en ont un peu plus maintenant.. disons : 42 :)

Ca fait une moyenne de 920 Kw pour refroidir chaque datacenter

Consommation de chaque datacenter

Maintenant qu'il nous reste 221 Megawatts, divisons cela par une estimation de 42 datacenters :

Cela fait une puissance électrique consommée d'environ 5.2 Megawatts par datacenter..

Combien de serveurs ?

Puissance par Datacenter : environ 5 Megawatts

On va revoir ça a la baisse.. (pertes des alimentations, pertes diverses et variées..)

Il reste 4.5 MW :

Supposons qu'un serveur Google consomme 200 Watts avec ses deux processeurs, 32 Go de ram et deux disques dur.

Cela fait : 22 500 serveurs par datacenters

Soit : 945 000 serveurs au total

Combien de mémoire ?

Si on part sur 32 Go par machine :

  • 30 240 000 Go soit 30 Millions de Go de ram (30 Peta-octets) (merci de me corriger si je me suis planté)

Combien d'espace disque ?

Si on part sur deux disques 2 To :

3 780 000 To : 3 Millions de To (3 Exabyte ?) (merci de me corriger si je me suis planté)

Energie renouvelable :

D'après Google, ils consomment :

  • 20 % d'énergie verte en 2010
  • 30 % en 2011

En 2020 Google utilisera 100 % d'énergie renouvelable ?

Conclusion :

Si on fait un comparatif sur la consommation en énergie pour chauffer nos maisons et appartements en France. Nous n'aurions plus besoin de centrales nucléaires pour nous chauffer l'hiver..

Google consomme relativement peu d'énergie pour alimenter ses datacenter... si l'on compare cela au pic de consommation électrique en France en 2010 : 94 200 MW

Peut être pourrions-nous utiliser Google pour avoir une réflexion globalisée sur une réduction intelligente de notre consommation électrique ?

edit Mon éstimation est pas loin d'une autre : http://www.datacenterknowledge.com/... 900 000 machines


Achetez un livre en rapport au sujet :

Google's Hamina Data Center

Voici une vidéo intéressante du Datacenter Google de Hamina

Qu'est-ce qu'on peut voir sur cette vidéo ?

Qualité de la communication

Ce coup là, Google ne rigole plus avec la communication, tout a été filmé avec un reflex numérique, sans doute un Canon 5D Mkii.. avec des optiques qui ouvrent beaucoup.. Il suffit de voir la profondeur de champ sur les interview

Chaque plan, chaque image est bossé à fond !

Exemple :

On peut voir un chantier relativement propre, avec des éoliennes sur le fond. C'est un message green

Sachant que Google a investit dans la société qui fait ces éoliennes..

Objectif ?

Avoir un PUE ridicule 1.000001 et consommer des électrons qui proviennent du vent directement... C'est presque un fonctionnement totalement Green.

Historique de ce Datacenter :

Ce datacenter c'est un exemple de réutilisation d'une ancienne papeterie.. proche de la mer

Pour la transformer en Datacenter.

Google avait forcement plusieurs intérêts stratégiques :

  • Gain pour la collectivité : Pas besoin de faire de dépollution du site, comme on a pu le voir plus localement (à Fourneaux dans la papeterie de Matussière)

[1]

C'est un poids en moins.. il n y aura pas à dépolluer.. puisque que Google va installer ses serveurs dans le bâtiment.

C'est encore une fois un fort gain d'image

  • Création d'emplois locaux

Google reprends une papeterie qui viens de fermer.. c'est encore une fois un gain d'image, ils vont créer xx emplois locaux pour maintenir le site en bon fonctionnement 24h/24.

La papeterie a fermé ses portes en 2008, ce qui a laissé plein de monde sans boulot. [2]

Plus exactement 400 personnes sans emploi.

Google aurait crée 180 emplois pendant la durée du chantier et utilisé un temps de travail d'environ 200 années/homme.

Quand aux travaux ils ont été donnés aux parti aux entreprises locales


'Vue sur l'ancienne papeterie devenue datacenter'

  • Economies sur le fonctionnement du datacenter :

Le problème numéro un d'un datacenter, c'est de faire des économies d'énergie et de ne pas consommer de l'électricité pour refroidir ses serveurs.

Dans le cas de Hamina, Google va directement pomper de l'eau dans la mer. Sans doute à une profondeur où la t° est constante toute l'année.

Et la réinjecter de manière soutteraine

Mais à mon avis, ils vont peut être faire un réseau de chaleur et proposer du chauffage aux habitants d'Hamina, ce serait encore un geste green envers les locaux.

La Parano Google :

  • Détecteurs de mouvements
  • Caméras
  • Accès biométrique aux serveurs

Comme toujours les serveurs seront totalement inaccessibles et vous n'en verrez sans doute jamais aucune image.

Pourquoi ?

Parce que c'est là que Google a de l'avance sur les autres ! J'avais lu qu'ils en étaient à la 17 ou 18 ème génération de serveurs..

Depuis cette version :

Source : Wikipedia

Sur certaines images on peut voir des caméras :

Comment fonctionne le système de refroidissement ?

Avec de l'eau de mer et sans doute avec aucun échange direct.. comme on a pu le voir avec Fukushima, mettre de l'eau de mer sur des trucs chaud.. ça pose quelques soucis de corrosion.

C'est globalement une mauvaise idée

Alors comme on peut le voir sur ces images :

Google utilise des échangeurs thermiques.

Vous avez d'un coté un réseau d'eau chaude (sans doute eau glycolée) chaude.

Cette eau chaude, passe dans un échangeur et les calories sont transférées du liquide calo-porteur à l'eau froide qui viens de la mer.

Je suppose aussi que l'eau de mer est filtrée, épurée pour éviter tout souci dans les pompes.

On peut voir sur ce site : http://proenergy.b2b-match.com/inde...

Des échangeurs qui ressemblent relativement à ceux de Google :

Autre exemple :


source

Ce sont des équipements capables de faire du 350 mètres cubes / heure.

Si on regarde bien la vidéo de Google, on voit 8 échangeurs.. 8 x 350 mètres cubes = 2800 tonnes d'eau par heure.. c'est assez démentiel !

Sans doute plusieurs dizaines de Megawatt a dissiper en chaleur.

Voici sans doute l'aspiration générale d'eau de mer, avec son retour "chaud"

Mais connaissant Google, je suppose qu'il doit s'agir uniquement de deux aspirations.. au cas où il y'aurait un problème avec la canalisation.

On voit quand même l'énorme moteur situé à droite, sans doute quelquechose qui doit approcher les 500 Kw.. j'ai eu l'occasion de voir des moteurs de grande taille pour le dépoussiérage d'usines du coin.. :)

Le diamètre des tubes est assez impressionnant :

Mais je pense qu'il s'agit de faibles pressions à un fort débit.. Car les attaches aux murs m'ont l'air bien fragiles..

Conclusion

Voilà comment réhabiliter un site industriel pour faire un datacenter de grande capacité et de très forte puissance.

Si cela peut vous donner des idées locales, moi j'en ai.. :)

Edit :

Un blog en parle : http://www.greenm3.com/gdcblog/2011...

Avec quelques slides :

Google va vous proposer des connexions Gigabit depuis des satellites orbite basse


[1]


Cannes : Thales Alenia Space construit un réseau satellitaire pour Google

Par le satellite, des capacités identiques à la fibre optique



Les satellites vont offrir des services de déport de réseau Internet par satellite à faible période de latence vers les pays émergeants et en voie de développement dans le monde entier à des vitesses pouvant atteindre 10 Gbps et d’une capacité totale combinée de 160 Gbps. Thales Alenia Space avait commencé les activités de conception de la constellation en 2007 et a reçu aujourd’hui de la compagnie 03b le contrat préliminaire portant sur la phase de construction de ce projet. La livraison et la mise en service sont prévues pour fin 2010.

Effectivement si l'orbite basse c'est 400 Km, la latence va être très faible. Reste à voir la distance "horizontale" pour aller chercher le débit au sol.

Merci à MLS pour l'info

Notes

[1] Source

Consommation électrique de Google aux USA


[1]

A quoi ressemble la consommation électrique de Google ?

Trouvé sur ce site : Portfolio.com un article intéressant sur la consommation électrique des datacenter Google.

Voici une image qui illustre bien les équivalences de consommation :

Sources d'énergie :

A priori aucune centrale nucléaire n'est utitlisée par Google pour alimenter ses serveurs (et le cooling qui va avec.. même si le PUE est faible)

Réduction de la consommation

Google passe beaucoup d'argent à faire du R&D pour étudier la meilleure méthode pour économiser de l'argent sur les fonctionnement des serveurs, cela passe principalement par l'étude de moyens de refroidissements quasi passifs :

  • Refroidissement à eau
  • Refroidissement via l'air ambiant (Freecooling)

Une méthode applicable à d'autres d'omaines

Il ne reste plus qu'a améliorer le PUE de nos logements et arrêter de consommer de l'électricité pour nous chauffer .. :)

Notes

[1] Source

Recherche statistiques dans les livres scannés par Google

Voilà un outil fantastique proposé par Google Books

  • Rechercher des mots dans 5 Millions de livres scannés
  • Les livres scannés représentes 4 % de tout ce qui a été produit sur la terre entre 1800 et 2000
  • Recherche dans 500 Milliards de mots

Voici quelques recherches que j'ai testés.. c'est très pertinent sur le monde dans lequel ont vit !

  • ski

  • cheval

  • petrole

  • informatique

  • internet

Visite du datacenter Google en Finlande

Voici une vidéo intéressante sur un nouveau datacenter Google situé à Hamina Finlande.

Rappels sur ce datacenter Google :

  • Ancienne usine de papier rénovée en datacenter (L'usine a fermé après 53 ans d'activité)
  • Usine vendue 40 Millions de dollars
  • La fermeture de l'usine a entraîné la perte de 450 emplois (A noter, cela pourrait arriver dans un contexte Maurienne)
  • PUE très bas
  • Utilisation de l'eau de la mer pour refroidir les machines
  • Je suppose que l'eau sera réinjectée en profondeur
  • Google va utiliser de l'énergie renouvelable : Voir l'annonce de WinWind en 2008, annonce sans doute liée à la venue de google.. qui a peut être investit dans l'affaire ?
  • Les éoliennes sont innaugurées : http://cleanindex.se/startups/artic... voir le communiqué
  • Une photo de l'usine de construction des éoliennes d'Hamina

On peut d'ailleurs voir l'éolienne sur cette photo :


source

Visite du Datacenter google de Mons par Zoorblog

Je viens de découvrir ce fantastique billet !

Inauguration du Data Center de Google Belgique

Analyse des photos

Vue d'ensemble

Sur cette image ont voit très bien sur la gauche la série de projecteurs.. Ils sont assez parano niveau sécurité, comme j'avais pu le lire sur le blog de Robert

Tours de refroidissement

Chaque tour dispose de deux para-tonnerre

Batiments administratifs

Pas très green l'éclairage !

Intérieur des bâtiments

Très étrange cette vision du green.. ils refroidissent le DC avec de la flotte pompée dans le canal d'a coté.. et ils ont besoin de cassettes de climatisation au plafond.

Les batiments ne sont pas isolés ? ils ne sont pas HQE ? Faut m'expliquer..

La salle de réparation des serveurs

Je pense que Tomhtml se trompe sur la description de l'image, nous sommes là dans l'atelier mécanique.. Avec des arbres, des roulemets, des presses hydrauliques. Il s'agit de mécanique d'industrie.. c'est le secteur maintenance des différentes installations (pompes etc..)

http://picasaweb.google.com/tomhtml...

Présentation d'un arrache moyeux... où comment sortir l'arbre qu'on voit à coté.. Du palier à roulements qu'on voit à coté...

http://picasaweb.google.com/tomhtml...

Encore une fois.. je me pose une question sur le coté Green ! Regardez le chauffage au plafond.. .Quoi ?? un chauffage dans un DC Google ? Ils ont pas un peu quelques dizaines de Megawatt de chauffage à coté ?

Je vous dit ça ..parce que j'ai visité le centre technique de Saint Jean de Maurienne.. et que j'ai vu du chauffage aussi de ce type.. avec un toit végatalisé sur le batiment..

Green où est-tu ?

Et nous arrivons à la photo la plus intéressante : La Control Room

Qu'est-ce qu'on peut voir ?

  • Utilisation de windows XP pour la lecture des logs
  • Utilisation d'une souris microsoft
  • Utilisation un Mac OsX (la tour grise en bas..) et on voit le technicien utiliser MacOsX avec la bare verticale.. on voit un Firefox un et Chrome.

Déduction : Ce système est raccordé au net ! :) Confiance en MacOsX et son code source fermé ? A mon avis Steeve Jobs.. doit regarder la conso electrique du DC à distance :)

  • Utilisation de prises électriques ondulées.. la convention veut qu'on ait des petits capuchons rouge dessus.
  • Sur les trois écrans du dessus on voit le système de gestion informatisé du cooling du DC.. a mon avis le système le plus critique et le plus confidentiel. Comment on a pu laisser prendre cette photo ?

On voit donc une série de 15 tours de refroidissement, certaines en vert d'autres en rouge.. le DC n'est pas en prod ?

Quelques suppositions.. sur la capacité de refroidissement.. 15 Tours ? 1 Megawatt par tour ? Puissance du DC : 15 Mw elec ?

Je regarderai ça en précision plus tard.

Sur l'écran du milieu on peut voir le circuit d'alimentation en eau .. avec sans doute : moteurs, filtration on voit l'état de fonctionnement : vert, rouge etc..

Sur l'écran à droite en haut.. on voit le graphique de température.. d'eau ? de refroidissement.. C'est le genre de graphiques que j'ai déjà vu sur les photos d'écrans d'Octave (OVH).

Ce graphique doit représenter un empilement des différentes tours de de refroidissement..

Conclusions rapide sur cette photo :

  • Tout est automatisé
  • Une seule personne surveille la partie technique du DC
  • Utilisation d'outils Google (le logo est présent sur tous les outils du monitoring) (A mon avis ce sont des pages web) (Ecran de droite un google chrome sous windows XP)

Merci Marc pour lien :) Merci TomHtml pour le reportage

Google fait du génie civil dans les forêts de l'oregon

Google a un datacenter à The Dalles et je vous propose cet article : Repairers forced to ski in to Orego...

Quels sont leurs soucis ?

Le backbone fibre de Google semble pas totalement enterré et certaines parties sont en aérien, alors ils leur arrive d'avoir des problèmes avec des sources humaines :

  • Des gens qui secouent les poteaux, parce qu'ils s'ennuient
  • Des chasseurs qui tirent sur les fibres aériennes

Comment Google les répare ?

En envoyant des technos via hélicoptère ou bulldozer.. et ils en profitent pour les enterrer au passage..

Où quand c'est l'hiver et qu'il est impossible d'y accéder, les technos prennent leurs skis et vont réparer..

D'où l'intérêt d'avoir plusieurs chemins pour le backbone

Même si les coupures et autres problèmes semblent être monnaie courante sur un backbone de grande taille, voir par exemple OVH

Google vous propose 3 solutions pour améliorer le PUE de votre datacenter

Google a annoncé quelques méthodes pour améliorer le PUE de votre datacenter, voici ce qu'ils proposent :

  • Séparer le chaud et le froid en créant des allées chaudes, les baies sont dos à dos et la chaleur est aspirée directement à la source.
  • Augmenter la climatisation, au lieu d'avoir 15° de production de froid mettre à 26°
  • Utiliser du "free cooling" (économiseur d'air), pour faire simple : On utilise l'air frais extérieur pour faire l'échange de calories. Notamment en utilisant des tours de refroidissement.. avec un principe que tout le monde connait : l'évaporation de l'eau permet un refroidissement. (comme le corps humain).

Les annonces de google semblent très simples, mais la réalité est un peu différente :

  • Pour faire du free cooling il faut pas mal de savoir-faire et encore peu d'entreprises savent faire ça..
  • Il faut être capable de faire du monotoring de l'ensemble de l'infrastructure pour mesurer tous les points vitaux :

- Température de tous les éléments
- Consommation électrique de tous les éléments
- Avoir beaucoup de puissance électrique produisant de la chaleur et si possible de manière très uniforme (4000 des mêmes serveurs.. exemple une grappe GFS google)
- Pouvoir tester des changements de configuration sans trop de risques.. les clusters google étant totalement redondant.. une coupure ne sera pas très grave.

Voilà à quoi ressemblent les allées chaudes Google :


Source : http://www.datacenterknowledge.com/...

Datacenter Google : les interrogations continuent..

Déjà, la vidéo.. n'est pas désentrelacée.. donc plein de petites rayures partout !

Revenons au sujet. Cette vue par exemple :

On dirait de la propagande, la vue contient plein de messages subliminaux :

  • Des câblages partout, ce coup là avec des têtes plastiques et plein de couleurs différentes. Ce n'est donc pas du câble fait a l'arrache, les pseudos câbles console : Admin de quoi ? Des équipements électriques sur place ? Pour quand une maintenance est faite ? Cela me parait véritablement étrange .. que lorsqu'on a 50 000 serveurs dans un datacenter.. on s'amuse à faire de la console sur les machines.
  • Un tableau, avec le Master Plan ?
  • Des disques dur neufs posés sur la table, le nombre de pannes doit être assez élevé

Seconde image :

Le technos arrive devant le conteneur, où il va ensuite mettre une machine.

Mais on ne voit pas la machine sur la table, mais deux disques sur, un plateau. Est-ce qu'il construit la machine sur place ? Cela ferait quand même pas mal de taf.. en cas de grosse panne..et perte de 500 machines (par exemple).. il faudrait beaucoup beaucoup de monde dans le DC.. pour tout remettre en route.

Ensuite, on le voit s'approcher de son ordinateur portable.. une interface de l'intranet pour réinclure une machine dans le cluster ? Encore une fois, cela me parait bien étonnant au niveau gestion.. Qu'il faille en faire autant.. Les machines ont sans doute un ideentifiant unique..

Les portes des conteneurs ne sont pas en dur, mais ont une vitre. Ce qui me fait dire qu'il y'a forcement un système anti-incendie performant. Le conteneur est donc forcement étanche pour éviter tout problème.. voir même tout problème de propagation d'un incendie.

D'ailleurs.. je trouve chaque conteneur très proche, faudrait pas qu'un seul prenne feu...

Tout est vraiment "low cost", on voit l'espece de système d'alarme et une etiquette "Home Security ... " on arrive pas trus bien a lire. Sans doute une alarme, ou quelquechose à code permettant d'entrer dans la salle ?

La vidéo est pleine de messages cachés.. par exemple là, on peut voir que la porte est taggée.. comme la plupart des choses chez Google. Sur d'autres images, d'une ancienne génération de racks. On pouvoit voir l'une des faces taggée..

Les machines sont codées comme ça :

AUNR12, AUKR12

On arrive pas très bien a lire

Une note à ce sujet : pas de codes barre, pas de choses allant vers l'automatisation et le système d'information autour des machines. De là une question : Est-ce que l'ordre des machines, compte vraiment ?

Le technicien n'est déjà plus dans le même conteneur.. parce que si l'on regarde dehors il y'a beaucoup d'espace. Alors qu'on devrait voir une table et du bordel de câbles.

Un choix de montage vidéo :)

Nous sommes bien dans un datacenter Google, dédié à Gmail :)

Le t-shirt date de 2007, le technos est sans doute là depuis .. 2 ans peut être plus. Encore une info intéressante :)

Beaucoup d'informations, certaines bonnes à jetter, beaucoup qui m'amusent !

Si vous avez des commentaires.. n'hésitez pas

Allez la suite !

Tout est pensé.. sur le volet de la porte, il y'a un mode manuel :

La belle manivelle :)

Tiens :

C'est quoi toute cette ficelle accrochée ensemble ?

Des liens vers le backbone ?

Est-ce qu'il y'a des switchs gigabit dans les salles, qui ont des uplink cuivre en 10 Gb/s vers dehors ?

C'est étonnant tout ces câbles.. D'ailleurs le routage doit se faire dans une autre salle. Sans doute en face des conteneurs, pour éviter 500 mètres de longueur de câble cuivre.

Tiens..

UPS ?

Je croyais qu'il y'en avait pas ? Ah si peut être pour les switchs..

Le gaz neutre, pour éteindre un éventuel incendie

Bon voilà, c'est tout pour ce soir.

Je vous invite aussi à aller voir du coté de chez Robert à Mons, l'une des vidéos publiée présente le datacenter Belge

Nouvelles photos d'un datacenter Google

J'ai trouvé de nouvelles photos d'un datacenter Google ! :)

Voir :

La localisation au bord d'un canal garanti bien que c'est du Google :

Sur cette image on peut voir en bas à droite une voiture sur le parking. Cela nous donne une echelle sur la hauteur du batiment.

Sans doute deux hauteurs de conteneurs dans ce batiment

Ce datacenter est aussi équipé d'un groupe électrogène, sur cette photo on peut voir dans la zone ou il y'a du gravier, deux espèces de cheminées qui sortent du sol. Sans doute en dessous un réservoir de fioul.

Quand on batiment derrière, il semble avoir plusieurs cheminées

Sur cette photo, on peut voir 3 énormes tours de refroidissement.

Elles utilisent :

  • De l'eau, en provenance du canal
  • De l'air frais

Datacenter Google : Des questions sur la vidéo..

Je continue sur la vidéo du Google Datacenter Summit du 1er Avril, il y'a véritablement une masse d'informations dans cette vidéo.

En regardant bien, voit le détail des câbles réseaux utilisés :

Ce sont des câbles "low cost", pas d'enveloppe plastique autour. A limite on pourrait croire que tout est fait maison et pas cher !

Parce que pour faire passer plusieurs Gb/s, c'est peut être pas le top des câbles fait maison. Mais quel est la différence réelle ?

  • Câble low cost
  • Câble blindé CAT-7

Peut être uniquement quelques Mb/s... Est-ce bien important dans un réseau de plusieurs milliers de machines ?

Autre sujet :

C'est quoi cette montagne de fils ? la connectique réseau ? les switchs ?

Si vous avez des idées, des infos.. laissez moi un commentaire

Google et ses 2,8 millions de serveurs, la fin de la fight club rule ?

La fight club rule viens d'être cassée chez Google ?


Inside A Google Data Center

36 datacenters, 40 à 50 000 serveurs dans chaque batiment, 2 batiments par site.. Allez, 2,8 millions de serveurs.. Mais vu le coté low cost des machines.. et si on applique un coef "fight club rule"

Peut être 3 millions de serveurs..

Mais à quoi peut bien servir autant de puissance de calcul ? :)...

Google veut améliorer le PUE de vos habitations

Google va lancer une solution de "monitoring" de la consommation d'énergie de vos maisons :

http://www.google.org/powermeter/in...

Cette solution de domotique sauce Google, permettra de mesurer la consommation électrique de votre maison.

Et ce genre de choses, ils savent faire. Car ils ont une grande expérience dans leurs datacenter, où il leur est primordial d'économiser de l'énergie.

En effet, 2 millions de serveurs qui consomment 5 Watt de trop, par exemple en cooling (refroidissement).. c'est que 10Megawatts de conso soit de l'argent..

De là.. plusieurs idées.. que je vous expose :

  • Google se limite à un seul problème : la consommation électrique

Ce choix est une vraie limitation à la consommation énergétique de votre logement. Il faut mesurer :

- La consommation électrique
- La température de chaque pièce
- La quantité de chauffage introduite dans la pièce (action des radiateurs)
- Le chauffage de l'eau (ballon d'eau chaude), conso électrique

Je trouve cela dommage

D'autres idées :

  • Des mesures de tous les lieux publics
  • Des mesures sur la conso de l'éclairage public
  • Des mesures de la température exterieur
  • Des mesures de la luminosité : afin de prévoir les endroits où l'ont pourra installer des panneaux solaires/photovoltaïques.

Tout cela pourrait utiliser un bus unique, par exemple 1Wire + ethernet + réseau ftth

Voilà.. j'écris le billet en regardant une émission télé.. ou tout va bien à tricastin ! :) On pourrait aussi prévoir des capteurs de radioactivité ? :)

D'autres billets à venir, c'était un brouillon.. Avec quelques idées..

Quelques notes

Lu ici : http://hardware.slashdot.org/comments.pl?sid=456576&cid=22449056

To get some ideas of where the cheapest electricity is look for the locations of aluminium smelters. Aluminium is almost vast amounts of solidified electricity, which is why we started recycling the stuff years before anything else - orders of magnitude in energy usage less to melt than to make from the oxide.

Et je vous invite à lire ceci :

http://serverspecs.blogs.techtarget.com/2008/02/21/google-enables-unemployed-aluminum-smelters-to-search-for-brittany-spears-even-faster/

While Google is promising to bring 100-200 employees to the region around The Dalles, two former aluminum smelters in the area employed 1,100. Now don’t get me wrong. A job at Google is probably a lot nicer than a job smelting aluminum. But if you’re one of the 1,000 or so local residents that once worked at the aluminum smelter but couldn’t land a job at Google, that doesn’t mean much.

Google Street View en Maurienne

Google street view en maurienne ?

Beaucoup de personnes ont vu ces véhicules en Maurienne :

Source : http://www.pcinpact.com/actu/news/43157-Google-view-milan-rome-street.htm

Où est-ce simplement un déplacement vers l'italie ? Ou l'étude pour le déploiement un d'un datacenter a la place d'une usine utilisant la houille blanche ?

:)

A priori les véhicules sont équipés de laser, afin de faire la version 3D des photos.

Google a un million de serveurs et c'est pas fini

Voilà c'est fait :

Google: Over 1 Million Servers And Counting!

Voilà pourquoi : Power Provisioning for a Warehouse-sized Computer, est quelquechose de très important pour une société de cette taille.

Leur consommation électrique et dégagement de chaleur (climatisations, transformateurs 1MW, onduleurs etc..) Tout cela consomme énormement d'énergie. Pour une alimentation 200 W d'un ordinateur, combien sont consommés réellement ? Pour rendre tout ça haute disponibilité.

Un datacenter Google, cela consomme peut être 30 Mw ?

Je pense que google va lancer plusieurs stratégies :

  • Panneaux solaires, pour un fonctionnement des machines la journée (sans transformations) courant continu. La nuit ce sera de l'énergie "conventionnelle" qui permettra de faire tourner les machines. Mais vu que les datacenter sont géolocalisés.. la nuit la conso élec devrait baisser.

Cela permettrait de mettre en place une strategie DNS : géo localisation + consommation électrique + position du soleil :)

  • Des datacenters qui rejettent moins de chaleur (enterrés ? isolés) Dans la plus part des cas, je pense que c'est mort. Il faudra reconstruire les batiments.. par contre, ceux construits actuellement doivent avoir des technologies intéressantes sur l'isolation.
  • Une très forte amélioration du kernel linux (2.6.22) pour le rendre plus écologique... gagner des cycles processeurs sur un million de machines.. Cela n'est pas négigleable.. On peut en mesurer la consommation électrique.

Néanmoins, la consommation électrique de google, c'est peut être qu'un effet d'annonce pour montrer qu'ils font des efforts. Si l'on compare à ce que peut produire en co² un A380, cela doit être négigeable.

D'ailleurs, Larry & Sergey vous avez quoi comme avion ? :)

Soyons réalistes sur la réelle conso électrique, j'ai des industries dans ma vallée.. la conso électrique dépasse largement celle d'un datacenter. C'est plutôt des centaines de Mw 24/7 sans aucune optimisation possible, il y'a un facteur mini pour la création de métal. Le procédé chimique a des limites d'optimisations. Tandis que des serveurs ont peut toujours tenter d'améliorer les algos.. :)

hésitez pas à réagir.. qu'on discute de tout ça !

Pour ma part, je file à Bessans voir un concours photo

- page 1 de 6