Big files needs to be split in lfs too
All checks were successful
continuous-integration/drone/push Build is passing
All checks were successful
continuous-integration/drone/push Build is passing
This commit is contained in:
parent
c7bb3a9466
commit
5ce16d57a4
@ -18,9 +18,9 @@ Chaque fichier doit avoir une entrée correspondante dans le fichier `DIGESTS.tx
|
|||||||
|
|
||||||
- Compresser (sans tarball, juste via **gzip**[^gz]) les fichiers lorsque c'est utile (memory dump, images BMP, disques, fichiers textes, ...).
|
- Compresser (sans tarball, juste via **gzip**[^gz]) les fichiers lorsque c'est utile (memory dump, images BMP, disques, fichiers textes, ...).
|
||||||
|
|
||||||
Indiquez dans le fichier `DIGESTS.txt` les hash du fichier compressé (utilisé par la plateforme pour vérifier que le fichier distribué n'a pas été altéré) **et** le hash du fichier initial décompressé (pour l'affichage sur la plateforme).
|
Indiquez dans le fichier `DIGESTS.txt` le hash du fichier compressé (utilisé par la plateforme pour vérifier que le fichier distribué n'a pas été altéré) **et** le hash du fichier initial décompressé (pour l'affichage sur la plateforme).
|
||||||
|
|
||||||
- Utiliser `$(split -b 240M -d BIG_FILE BIG_FILE.)` pour uploader les gros fichiers sur **owncloud**.
|
- Utiliser `$(split -b 240M -d BIG_FILE BIG_FILE.)` pour uploader les gros fichiers (en cas d'erreur 413 notamment).
|
||||||
|
|
||||||
Ces fichiers seront concaténés automatiquement au moment de leur import sur la plateforme.
|
Ces fichiers seront concaténés automatiquement au moment de leur import sur la plateforme.
|
||||||
|
|
||||||
|
Loading…
Reference in New Issue
Block a user