Столкнулся с задачей: необходимо стянуть с сервера большой файл, 100+ Гб, но вот незадача, не стабильное соединение. Выкачается за несколько часов, например 70 Гб и соединение обрывается, а это и время и трафик. Самое простое на мой взгляд решение - это разбить файл на кусочки, выкачать их и потом склеить снова в большой файл...
- Разбить на кусочки по 10 Гб, можно такой командой:
split -b 10G big_file.ext
при этом имена файлов будут типа: xaa, xab, xac..
- Далее копируем их к себе
- Склеиваем в Linux:
cat xaa xab xac > big_file.ext
- Склеиваем в Windows:
copy /B xaa+xab+xac big_file.ext
Комментарии (8)
А как разбить файлы на windows? а потом склеить на Linux ?
Есть такая возможность ?
Встроенной утилиты Windows для этих целей я не знаю. Можно, скачать GNU Core Utils для Windows и воспользоваться тем же split-ом. Еще, как вариант, установить архиватор который умеет делать многотомные архивы (например WinRar), и сделать архив с минимальным уровнем сжатия (или без сжатия), выставив нужный размер для частей.
cat БЛА ГОДА РОЧ КА > Спасибо.тхт
mv Спасибо.тхт Рад-Помочь.тхт :)
Спасибо, как раз то что нужно :)
Спасибо!Очень помогло скинуть архив с игрой,который не влез на карту памяти обьёмом в 4 гига.
Виталий, большое спасибо!
Пожалуйста, рад что тебе помог!