×
Bienvenue sur le nouveau serveur de l'Aru2L (17 Nov 2012)

Nous voila en phase beta suite à une refonte totale du site de l'aru2L, n'hésitez pas à faire remonter les Bugs que vous pouvez trouver sur contact(@)aru2l.org (enlever les parenthèses) ou en créant un post sur le forum.
Nous vous prions de bien vouloir nous excusez pour la gène occasionnée.

Topic-icon iliad ou le voyage au coeur de la démesure

Plus d'informations
il y a 6 ans 7 mois - il y a 6 ans 7 mois #4719 par stephdl
stephdl a créé le sujet : iliad ou le voyage au coeur de la démesure
iliad c'est la société qui propose des serveurs en location sur internet....vous savez les serveurs de cloud ;)

il n'empêche que leur datacenter vaut le coup d'oeuil, ne serait ce que pour la débauche de technologie ;)

une jolie ballade accompagnée de musique douce, mais essayez de prêter l'oreille au bruit de fond des serveurs....casque anti-bruit obligatoire!!!

par contre ce qui m'a fais délirer, c'est l'alimentation électrique nécessaire, regarder les transformateurs....et les batteries, une paille : 200 tonnes

sans compter qu'apres tous cela il faut refroidir, bien sur :p


.....être Libre, c'est aussi être Militant.....

stephane (att) de-labrusse (punto) fr
Dernière édition: il y a 6 ans 7 mois par stephdl.

Connexion pour participer à la conversation.

Plus d'informations
il y a 6 ans 7 mois #4720 par RPG
RPG a répondu au sujet : Re: iliad ou le voyage au coeur de la démesure
Iliad c'est aussi Free alors c'est normal. Ils sont habitué au gros volume...

Aucun de nous ne sait ce que nous savons tous, ensemble.
'Lao Tseu'

Connexion pour participer à la conversation.

Plus d'informations
il y a 6 ans 7 mois - il y a 6 ans 7 mois #4721 par BarbeRousse
BarbeRousse a répondu au sujet : Re: iliad ou le voyage au coeur de la démesure
Ça ressemble au cellier mais en plus grand.

Et encore ils ont réduit le bruit des machines.
Pour avoir fait de la maintenance chez plusieurs ex clients dans des data center (Equinix, EDS (acheté par HP il n' y a pas longtemps), oXya et Cegetel) je peux affirmer qu' une fois à l' intérieur tu ne vois plus le temps passer.
Pour parler avec le collègue il faut crier.
Sans parler de l' air froid qui est insufflé par le faux plancher histoire d' avoir chaud en hiver et de choper un bon coup de froid en été.

Et impossible d' y rentrer sans le client et une demande faite au moins 2 jours en avance avec tous les papiers imaginables.

Non seulement il faut refroidir le tout mais le taux d' humidité est régulé (comme une bonne cava à vin). C' est avec l' eau contenu dans l'air que le refroidissement est efficace.
Un peut comme en été quand vous êtes sur une terrasse de café équipé d'un brumisateur. Mais il n' en faut pas trop sinon les circuits n'aiment pas.

En fait une bonne moitié de l'énergie consommée sert au refroidissement !!!
Chez Equinix (expliqué dans une vidéo) il font circuler l' équivalent de 2.2 millions d' eau glacé par jour ...
www.equinix.com/data-center-locations/eq...nter-infrastructure/


Pour l' histoire un "blade center" c'est une sorte de carte mère "chasis" (gestion alimentation, réseau, vidéo, ventilation) qui comporte des emplacements pour accueillir des "lames" (processeur, mémoire, éventuellement disque système).
Je ne me trompe pas RPG ?

Comme ici et .
Dernière édition: il y a 6 ans 7 mois par BarbeRousse.

Connexion pour participer à la conversation.

Plus d'informations
il y a 6 ans 7 mois #4725 par RPG
RPG a répondu au sujet : Re: iliad ou le voyage au coeur de la démesure
Pour le blade, y'a plusieurs versions en fait.

Tu as la version style PME/Entreprises avec comme tu dis le châssis, le réseau, ...comme ici et moins dans le bloc serveur et la version Hyperscale, ou le chassis sert de fond de panier juste pour le support et l'alim et toute la partie connectique est en face avant du boitier (style Dell XS11-VX8 par exemple) comme ça
La puissance dégagé et effective des premiers n'a rien à voir avec les seconds... Le prix non plus..

Sur le premier lien, un bloc (y'en a 16) peut couter 18500€ sans OS avec 2 Intel Xeon X5667 4coeur à 3,06Ghz avec 12Mo Cache (95W chacun), 192Gb RAM et 2 disques SAS 600Gb/10K RPM. Vous pouvez faire le votre en allant sur Dell Moyenne et Grande Entreprise / Serveur Blade.

La partie hyperscale n'est pas accessible en ligne, il vous faudra passer par votre commercial Dell.

:-)

Aucun de nous ne sait ce que nous savons tous, ensemble.
'Lao Tseu'

Connexion pour participer à la conversation.

Plus d'informations
il y a 6 ans 7 mois #4726 par stephdl
stephdl a répondu au sujet : Re: iliad ou le voyage au coeur de la démesure
et cela boot par pxe ces machines ?

:p

.....être Libre, c'est aussi être Militant.....

stephane (att) de-labrusse (punto) fr

Connexion pour participer à la conversation.

Plus d'informations
il y a 6 ans 7 mois - il y a 6 ans 7 mois #4729 par BarbeRousse
BarbeRousse a répondu au sujet : Re: iliad ou le voyage au coeur de la démesure
Bonne question ...
Tu en as un sous la main pour vérifier ?

Pour le type Server Blade :
  1. Ben tu peux utiliser chaque lame comme un serveur mais cela n' a pas trop d' intérêt sauf pour l' hébergement comme dedibox ou kimsufi.
    En effet le/les service(s) qui vont être mis à disposition des "clients" ne vont pas forcément être utilisés de manière soutenue.

    En gros la plus part du temps l' utilisation des ressources est faible ou moyenne. Le reste n' est pas utilisé et coûte cher (en consommation et refroidissement).

    Sur les anciennes machines on arrivait à saturation avec un service, alors qu' aujourd' hui beaucoup de machines sont sur-dimensionnées par rapport à leurs utilisation.


  2. D' où le passage aux machines virtuelles.
    Chaque lame n' est plus un serveur avec des services spécifiques. Chaque une d' entre elles fait partie d' un ensemble de ressources (comme une grosse entité) misent à disposition
    pour des machines virtuelles via des Vmware ESX ou Citrix Xen.

    Le serveur qui fait tourner les services n' est plus attaché à une lame, c' est une machine virtuelle.
    En fait le gestionnaire des machines (ESX, Xen) répartie les machines virtuelles sur les lames en fonction des ressources disponibles et celles demandées.

    Ces systèmes sont capables de déplacer une machine virtuelle en exécution d'une lame à une autre.
    • Soit une lame est en panne et afin de garder une continuité dans le service, les machines qui était dessus sont déplacées le temps de remplacer la lame sans tout arrêter (hotplug) avant de les faire revenir.
    • Soit une machine virtuelle à besoin de plus de ressources et est déplacée sur une lame ayant plus de ressources disponibles pour cette dernière.
      Ainsi les ressources matérielles disponibles sont mieux utilisées et un service ftp utilisé deux fois dans la journée ne monopolisera plus une machine physique entièrement pour elle.


Pour aller plus loin, les disques durs des lames, généralement deux en raid1, sont utilisés par un système spécifique à ESX ou Xen pour affecter cette lame dans les ressources communes.
Toutes les machines virtuelles sont stockées dans des baies de disques dédiées (réseau fibre optique avec connexion iSCSI) qui assurent une tolérance de panne et une séparation de la machine physique et virtuelle.

iSCSI c'est en fait du SCSI sur un réseau IP. SCSI étant aux entreprises l' IDE des machines pour particuliers, la communication entre le disque dur et la machine.
Donc au lieu d' avoir le disque directement branché dans votre tour de PC il est accessible via un réseau.
Voyez le comme un NAS sur votre réseau domestique en beaucoup plus évolué.

En gros avec ce système on évite un temps de coupure en cas de panne et une meilleure répartition des ressources (CPU / mémoire).

Je me rappelle qu' une entreprise avait passé 8 baies 48U de systèmes divers dans seulement 3 balde IBM ... Gain de place (pas de chaleur) et moins sensible aux pannes matérielles (tout peut se changer à chaud).



Sinon pour en revenir au PXE et ses machines particulières.
Dans les configurations de cluster ou "grappe de serveurs" (merci wikipedia) une machine sert de stockage et serveur maître (répartition des taches, maître des opérations), toutes les autres machines (généralement identiques) n' ont pas de disques pour stocker un système d' exploitation.
Elles démarrent par un réseau dédié et lance l' O.S. présent sur le master via PXE.
La maintenance est simplifiée, il suffit de s' occuper de l' image qui est sur le serveur maître.
En gros toutes les machines sans disques ne sont utilisées que pour leur puissance de calcul et rien d' autre.
Le maître doit traiter une grosse requête, pour cela il envois des petites morceaux aux autre machines et réassemble les résultats.

Aujourd'hui on fait cela avec à la fois des CPU et GPU (meilleur en calcul avec virgule flottante), regardez le TOP 500.


Mais je suppose que sur des lames on peut faire de même si l' ont veux par exemple avoir une ferme de serveurs web pour envoyer une page web au plus grand nombre d' utilisateur d' Internet. Chaque serveur à la même configuration près, donc inutile de les gérer un par un.

Par exemple pour le "super" truc ou beaucoup de personnes exposent leur vie, ils n' ont pas qu' une machine. Pour les mettre à jour cela prendrait trop de temps de le faire une par une. Pour cela ils utilisent le protocole bittorent pour propager les morceaux de codes.


Toujours dans le cadre PXE
Dans le cadre de kimsufi (je ne sais pas pour les autres) si ta machine ne répond plus tu peux demander à démarrer un système d' exploitation dédié à la réparation (via l' interface web des utilisateurs).
Celui - ci n'est pas sur la machine mais est démarrée par PXE.
Ce dernier démarre ensuite l' O.S. originel de la machine et te donne le contrôle par une fenêtra dans ton navigateur web. C' est assez pratique.
Quand on commande un serveur dédié, il ne mettent pas quelqu'un derrière un écran pour installer le système que tu veux, où le réinstaller si tu foire tout.
L' installation démarre par une image PXE, donc tout est automatisé, gain de temps énorme.

Bref on peut faire plein de choses amusantes.
Dernière édition: il y a 6 ans 7 mois par BarbeRousse.

Connexion pour participer à la conversation.

Temps de génération de la page : 0.170 secondes