J'ai créé un script de sauvegarde simple et siple qui sauveille certains fichiers et dossiers.
gzip: stdout: File too large
3 Réponses :
Le système de fichiers peut-il sauvegarder pour prendre en charge les fichiers volumineux? p>
Plus précisément, le FAT32 a une limite d'~ 4 Go dans un seul fichier et d'autres systèmes de fichiers ont des limites similaires. P>
Si votre sauvegarde fonctionne pendant 30 minutes, le fichier pourrait facilement obtenir ce genre de taille. P>
De même, vos versions de goudron code> et
gzip code> supportent les gros fichiers?
Il a mentionné NTFS et EXT4 dans sa réponse au commentaire de Whirlwind.
Utilisez une utilitaire de compression différente, comme Compress ou BZIP2 P>
Cette réponse est incorrecte, car GZIP peut gérer des fichiers volumineux tout à fait. C'est une question de système de fichiers, et l'erreur provient de libc, pas de GZIP.
fichier trop grand em> est un message d'erreur de votre libc: la sortie a dépassé la limite de taille de fichier de votre système de fichiers. Ce n'est donc pas un problème em> gzip em> problème . P> Options: Utilisez un autre système de fichiers ou utiliser SPLAST: P> cat www-backup.tar.*|gunzip -c |tar xvf -
Il mentionne que les systèmes de fichiers sont NTFS et EXT 4, donc je ne sais pas pourquoi libc repoussait. Néanmoins, ça sonne bien alors +1.
Vous pouvez essayer d'utiliser un type de système de fichiers différent.
/ Le développement fonctionne sur NTFS. Le reste sur EXT 4, puis sauvegarder jusqu'à NTFS
Les versions plus anciennes de Samba avaient une limite de taille de fichier 2G, au cas où cela est pertinent.
Question muette: est-ce que $ répertoire à l'intérieur / à la maison? Parce que si vous allez certainement frapper certaines limites, peu importe ce que vous faites, car votre script sera bloqué dans une boucle infinie tenter d'ajouter le fichier en soi.
Le répertoire $ contient le répertoire dans lequel les fichiers doivent être stockés et c'est-à-dire sur un lecteur flash NTFS partitionné