Big files needs to be split in lfs too
All checks were successful
continuous-integration/drone/push Build is passing
All checks were successful
continuous-integration/drone/push Build is passing
This commit is contained in:
parent
c7bb3a9466
commit
5ce16d57a4
@ -18,9 +18,9 @@ Chaque fichier doit avoir une entrée correspondante dans le fichier `DIGESTS.tx
|
||||
|
||||
- Compresser (sans tarball, juste via **gzip**[^gz]) les fichiers lorsque c'est utile (memory dump, images BMP, disques, fichiers textes, ...).
|
||||
|
||||
Indiquez dans le fichier `DIGESTS.txt` les hash du fichier compressé (utilisé par la plateforme pour vérifier que le fichier distribué n'a pas été altéré) **et** le hash du fichier initial décompressé (pour l'affichage sur la plateforme).
|
||||
Indiquez dans le fichier `DIGESTS.txt` le hash du fichier compressé (utilisé par la plateforme pour vérifier que le fichier distribué n'a pas été altéré) **et** le hash du fichier initial décompressé (pour l'affichage sur la plateforme).
|
||||
|
||||
- Utiliser `$(split -b 240M -d BIG_FILE BIG_FILE.)` pour uploader les gros fichiers sur **owncloud**.
|
||||
- Utiliser `$(split -b 240M -d BIG_FILE BIG_FILE.)` pour uploader les gros fichiers (en cas d'erreur 413 notamment).
|
||||
|
||||
Ces fichiers seront concaténés automatiquement au moment de leur import sur la plateforme.
|
||||
|
||||
|
Loading…
Reference in New Issue
Block a user