script de sauvegarde du site aru2L
- stephdl
-
Auteur du sujet
- Hors Ligne
- Administrateur
-
- le libre vous va si bien
il y a 13 ans 9 mois - il y a 13 ans 9 mois #3529
par stephdl
.....être Libre, c'est aussi être Militant.....
stephane (att) de-labrusse (punto) fr
script de sauvegarde du site aru2L a été créé par stephdl
Notre hébergement gracieux est de qualité, mais lors d'une conversation avec les admins de notre hébergeur (Tuxfamily), il en est ressorti que nous étions responsable de nos sauvegardes.
nous avions évoqué de faire un script de sauvegarde automatisée....j'en ai mis un en route ce weekend.....c'est mon premier script, alors un peu de compassion je vous prie
.
un dump de la base mysql est fais tous les soirs par Tuxfamily, aussi nous avons simplement besoin de le récupérer par l'accès FTP.
par ce script j'en profite pour récupérer aussi l'espace de download, et le site html.
Mais pour ce dernier je ne sais pas si c'est intéressant et si on pourra restaurer le site par ce backup....j'attends vos remarques.
Le script m'automatise des taches d'archivage en créant un dossier qui comporte dans son nom la date du jour, mais aussi de gérer le nombre de backup en supprimant les entrées vieilles de plus de 15 jours.
Pour cela il faut mettre le script dans le dossier /etc/cron.daily, puis le rendre exécutable : chmod 700 /etc/cron.daily/sauvaru2L
[img]
nous avions évoqué de faire un script de sauvegarde automatisée....j'en ai mis un en route ce weekend.....c'est mon premier script, alors un peu de compassion je vous prie

un dump de la base mysql est fais tous les soirs par Tuxfamily, aussi nous avons simplement besoin de le récupérer par l'accès FTP.
par ce script j'en profite pour récupérer aussi l'espace de download, et le site html.
Mais pour ce dernier je ne sais pas si c'est intéressant et si on pourra restaurer le site par ce backup....j'attends vos remarques.
Le script m'automatise des taches d'archivage en créant un dossier qui comporte dans son nom la date du jour, mais aussi de gérer le nombre de backup en supprimant les entrées vieilles de plus de 15 jours.
Pour cela il faut mettre le script dans le dossier /etc/cron.daily, puis le rendre exécutable : chmod 700 /etc/cron.daily/sauvaru2L
#!/bin/bash
#script de sauvegarde du site
#la variable date va donner un nom différent aux sauvegardes journalières
date=$(date +%F)
lftp -u user,mdp ftp.tuxfamily.org -e "mirror /aru2l/ $HOME/sauv-site-aru2L/sauvaru2l-$date; quit"
## Supprime les sauvegardes vieilles de plus de 15 jours
#
find $HOME/sauv-site-aru2L/sauvaru2l* -type d -mtime +15 | xargs -r rm -rf
.....être Libre, c'est aussi être Militant.....
stephane (att) de-labrusse (punto) fr
Dernière édition: il y a 13 ans 9 mois par stephdl.
Connexion pour participer à la conversation.
- Winux
-
- Hors Ligne
- Administrateur
-
- Avec un bon compliment, je peux vivre deux mois..
Réduire
Plus d'informations
- Messages : 1152
- Remerciements reçus 2
il y a 13 ans 9 mois #3537
par Winux
\"Il faut se durcir... mais sans jamais se départir de sa tendresse\" Che Guevara
Réponse de Winux sur le sujet Re:script de sauvegarde du site aru2L
moi je te fais une totale confiance steph
,
ho! RPG tu peux vérifier
en douce ...

ho! RPG tu peux vérifier

\"Il faut se durcir... mais sans jamais se départir de sa tendresse\" Che Guevara
Connexion pour participer à la conversation.
- stephdl
-
Auteur du sujet
- Hors Ligne
- Administrateur
-
- le libre vous va si bien
il y a 13 ans 9 mois #3547
par stephdl
.....être Libre, c'est aussi être Militant.....
stephane (att) de-labrusse (punto) fr
Réponse de stephdl sur le sujet Re:script de sauvegarde du site aru2L
Winux écrit:
je récupère un backup de 190 megas tous les soirs....ma seule inquiétude est que lors je lance le script, j'ai 5 fichiers qui me sont refusés en lecture, il faut que je vérifie les droits d'accès de mon client FTP.
ne soit pas trop jaloux winux....au fait j'ai imprimer un cour de Bash de 700 pages au boulot, j'ai de quoi faire mais c'est hyper interessant.
moi je te fais une totale confiance steph
,
ho! RPG tu peux vérifieren douce ...
je récupère un backup de 190 megas tous les soirs....ma seule inquiétude est que lors je lance le script, j'ai 5 fichiers qui me sont refusés en lecture, il faut que je vérifie les droits d'accès de mon client FTP.
ne soit pas trop jaloux winux....au fait j'ai imprimer un cour de Bash de 700 pages au boulot, j'ai de quoi faire mais c'est hyper interessant.
.....être Libre, c'est aussi être Militant.....
stephane (att) de-labrusse (punto) fr
Connexion pour participer à la conversation.
- RPG
-
- Hors Ligne
- Administrateur
-
- RTFM !!
il y a 13 ans 9 mois #3616
par RPG
Aucun de nous ne sait ce que nous savons tous, ensemble.
'Lao Tseu'
Réponse de RPG sur le sujet Re:script de sauvegarde du site aru2L
Sur ce coup-là, je pense qu'il vaut mieux voir avec le vrai : ca_mousse...
Perso, j'aurai peut-être inclus un tar.gz histoire d'avoir moins de truc... ?
Perso, j'aurai peut-être inclus un tar.gz histoire d'avoir moins de truc... ?
Aucun de nous ne sait ce que nous savons tous, ensemble.
'Lao Tseu'
Connexion pour participer à la conversation.
- stephdl
-
Auteur du sujet
- Hors Ligne
- Administrateur
-
- le libre vous va si bien
il y a 13 ans 9 mois #3620
par stephdl
.....être Libre, c'est aussi être Militant.....
stephane (att) de-labrusse (punto) fr
Réponse de stephdl sur le sujet Re:script de sauvegarde du site aru2L
RPG écrit:
j'en ai discuté avec camousse, et il a une approche differente, que je vous communique...je vais l'etudier avec lui pour voir la solution.
pour ma part je depense de la bande passante à tux en telechargeant tous les soirs 200 megas...
son idées :
se connecter en shell pour fair un tar directement sur le serveur, puis le telecharger, ce qui aurait l'avantage de diminuer le volume de bande.
l'inconvenient, on utiliserait plus de cpu pour comprimer, mais l'utilisation de la cpu doit moins couter que les gigas octets
Sur ce coup-là, je pense qu'il vaut mieux voir avec le vrai : ca_mousse...
Perso, j'aurai peut-être inclus un tar.gz histoire d'avoir moins de truc... ?
j'en ai discuté avec camousse, et il a une approche differente, que je vous communique...je vais l'etudier avec lui pour voir la solution.
pour ma part je depense de la bande passante à tux en telechargeant tous les soirs 200 megas...
son idées :
se connecter en shell pour fair un tar directement sur le serveur, puis le telecharger, ce qui aurait l'avantage de diminuer le volume de bande.
l'inconvenient, on utiliserait plus de cpu pour comprimer, mais l'utilisation de la cpu doit moins couter que les gigas octets
.....être Libre, c'est aussi être Militant.....
stephane (att) de-labrusse (punto) fr
Connexion pour participer à la conversation.
Temps de génération de la page : 0.131 secondes