Big files needs to be split in lfs too
continuous-integration/drone/push Build is passing Details

This commit is contained in:
nemunaire 2022-11-06 22:21:27 +01:00
parent c7bb3a9466
commit 5ce16d57a4
1 changed files with 2 additions and 2 deletions

View File

@ -18,9 +18,9 @@ Chaque fichier doit avoir une entrée correspondante dans le fichier `DIGESTS.tx
- Compresser (sans tarball, juste via **gzip**[^gz]) les fichiers lorsque c'est utile (memory dump, images BMP, disques, fichiers textes, ...).
Indiquez dans le fichier `DIGESTS.txt` les hash du fichier compressé (utilisé par la plateforme pour vérifier que le fichier distribué n'a pas été altéré) **et** le hash du fichier initial décompressé (pour l'affichage sur la plateforme).
Indiquez dans le fichier `DIGESTS.txt` le hash du fichier compressé (utilisé par la plateforme pour vérifier que le fichier distribué n'a pas été altéré) **et** le hash du fichier initial décompressé (pour l'affichage sur la plateforme).
- Utiliser `$(split -b 240M -d BIG_FILE BIG_FILE.)` pour uploader les gros fichiers sur **owncloud**.
- Utiliser `$(split -b 240M -d BIG_FILE BIG_FILE.)` pour uploader les gros fichiers (en cas d'erreur 413 notamment).
Ces fichiers seront concaténés automatiquement au moment de leur import sur la plateforme.