Zjistil jsem, že moje optimální velikost bloku je 8 MB (odpovídá mezipaměti disku?) Potřeboval jsem vymazat (někteří říkají:umýt) prázdné místo na disku před vytvořením jeho komprimovaného obrazu. Použil jsem:
cd /media/DiskToWash/
dd if=/dev/zero of=zero bs=8M; rm zero
Experimentoval jsem s hodnotami od 4K do 100M.
Poté, co jsem nechal dd chvíli běžet, zabil jsem ho (Ctlr+C) a přečetl výstup:
36+0 records in
36+0 records out
301989888 bytes (302 MB) copied, 15.8341 s, 19.1 MB/s
Protože dd zobrazuje rychlost vstupu/výstupu (v tomto případě 19,1 MB/s), je snadné zjistit, zda hodnota, kterou jste vybrali, má lepší výkon než předchozí nebo horší.
Moje skóre:
bs= I/O rate
---------------
4K 13.5 MB/s
64K 18.3 MB/s
8M 19.1 MB/s <--- winner!
10M 19.0 MB/s
20M 18.6 MB/s
100M 18.6 MB/s
Poznámka:Chcete-li zkontrolovat velikost mezipaměti disku/vyrovnávací paměti, můžete použít sudo hdparm -i /dev/sda
Jak řekli jiní, neexistuje žádná univerzálně správná velikost bloku; co je optimální pro jednu situaci nebo jeden kus hardwaru, může být pro jinou strašně neefektivní. V závislosti na stavu disků může být také vhodnější použít jinou velikost bloku, než která je "optimální".
Jedna věc, která je na moderním hardwaru docela spolehlivá, je, že výchozí velikost bloku 512 bajtů má tendenci být téměř o řád pomalejší než optimálnější alternativa. Když jsem na pochybách, zjistil jsem, že 64K je docela solidní moderní výchozí hodnota. Ačkoli 64 kB obvykle není optimální velikost bloku, podle mých zkušeností bývá mnohem efektivnější než výchozí. 64K má také docela solidní historii spolehlivého výkonu:Můžete najít zprávu z mailing listu Eug-Lug, cca 2002, doporučující velikost bloku 64K zde:http://www.mail-archive.com/example@ unixlinux.online/msg12073.html
Pro určení optimální velikosti výstupního bloku jsem napsal následující skript, který testuje zápis 128M testovacího souboru s dd v rozsahu různých velikostí bloku, od výchozích 512 bajtů až po maximum 64M. Pozor, tento skript používá dd interně, takže jej používejte opatrně.
dd_obs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Calculate number of segments required to copy
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
if [ $COUNT -le 0 ]; then
echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
break
fi
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Create a test file with the specified block size
DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)
# Extract the transfer rate from dd's STDERR output
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
# Output the result
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
Zobrazit na GitHubu
Tento skript jsem testoval pouze na systému Debian (Ubuntu) a na OSX Yosemite, takže bude pravděpodobně vyžadovat nějaké úpravy, aby fungoval na jiných variantách Unixu.
Ve výchozím nastavení příkaz vytvoří testovací soubor s názvem dd_obs_testfile v aktuálním adresáři. Případně můžete zadat cestu k vlastnímu testovacímu souboru zadáním cesty za názvem skriptu:
$ ./dd_obs_test.sh /path/to/disk/test_file
Výstupem skriptu je seznam testovaných velikostí bloků a jejich příslušných přenosových rychlostí:
$ ./dd_obs_test.sh
block size : transfer rate
512 : 11.3 MB/s
1024 : 22.1 MB/s
2048 : 42.3 MB/s
4096 : 75.2 MB/s
8192 : 90.7 MB/s
16384 : 101 MB/s
32768 : 104 MB/s
65536 : 108 MB/s
131072 : 113 MB/s
262144 : 112 MB/s
524288 : 133 MB/s
1048576 : 125 MB/s
2097152 : 113 MB/s
4194304 : 106 MB/s
8388608 : 107 MB/s
16777216 : 110 MB/s
33554432 : 119 MB/s
67108864 : 134 MB/s
(Poznámka:Jednotka přenosových rychlostí se bude lišit podle OS)
Chcete-li otestovat optimální velikost bloku čtení, můžete použít víceméně stejný proces, ale místo čtení z /dev/zero a zápisu na disk byste četli z disku a zapisovali do /dev/null. Skript, který to provede, může vypadat takto:
dd_ibs_test.sh:
#!/bin/bash
# Since we're dealing with dd, abort if any errors occur
set -e
TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728
# Exit if file exists
if [ -e $TEST_FILE ]; then
echo "Test file $TEST_FILE exists, aborting."
exit 1
fi
TEST_FILE_EXISTS=1
if [ $EUID -ne 0 ]; then
echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi
# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1
# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'
# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
# Clear kernel cache to ensure more accurate test
[ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches
# Read test file out to /dev/null with specified block size
DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)
# Extract transfer rate
TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')
printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done
# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi
Zobrazit na GitHubu
Důležitým rozdílem v tomto případě je, že testovací soubor je soubor, který je zapsán skriptem. Nemiřte tímto příkazem na existující soubor, jinak bude existující soubor přepsán nulami!
Pro můj konkrétní hardware jsem zjistil, že 128K byla nejoptimálnější velikost vstupního bloku na HDD a 32K bylo nejoptimálnější na SSD.
Ačkoli tato odpověď pokrývá většinu mých zjištění, narazil jsem na tuto situaci tolikrát, že jsem o ní napsal blogový příspěvek:http://blog.tdg5.com/tuning-dd-block-size/ Můžete najít další podrobnosti na testech, které jsem tam provedl.
To je zcela závislé na systému. Měli byste experimentovat, abyste našli optimální řešení. Zkuste začít s bs=8388608
. (Jelikož se zdá, že HDD Hitachi mají mezipaměť 8 MB.)
Optimální velikost bloku závisí na různých faktorech, včetně operačního systému (a jeho verze) a různých hardwarových sběrnicích a použitých discích. Několik systémů podobných Unixu (včetně Linuxu a alespoň některých variant BSD) definuje st_blksize
členem v struct stat
to dává to, co si jádro myslí, že je optimální velikost bloku:
#include <sys/stat.h>
#include <stdio.h>
int main(void)
{
struct stat stats;
if (!stat("/", &stats))
{
printf("%u\n", stats.st_blksize);
}
}
Nejlepším způsobem může být experiment:zkopírujte gigabajt s různými velikostmi bloků a časem. (Nezapomeňte před každým spuštěním vymazat mezipaměť vyrovnávací paměti jádra:echo 3 > /proc/sys/vm/drop_caches
).
Nicméně jako orientační pravidlo jsem zjistil, že dostatečně velká velikost bloku umožňuje dd
odvádějí dobrou práci a rozdíly mezi řekněme 64 kiB a 1 miB jsou nepatrné ve srovnání se 4 kiB oproti 64 kiB. (I když, pravda, už je to nějaký čas, co jsem to udělal. Nyní používám standardně mebibajt, nebo nechám dd
vyberte velikost.)