Byl jednou jeden projekt, jehož klíčovou součástí bylo čtení z disků (obecně jakýkoliv storage). Řešily se dva problémy. Jednak čtení z více nezávislých zařízení současně a také co nejvyšší rychlost čtení z jednoho zařízení.
Udělali jsme několik testů a již prvotní testy vyvrátily naši doměnku, že s rostoucím počtem paralelních čtecích procesů musí rychlost nutně klesat. Další testy ukázaly, že rychlost čtení je jednak závislá na počtu čtenárů ale také silně závislá na velikosti čtených dat.
Na následujících grafech je na ose x počet paralelních čtecích procesů, na ose y rychlost čtení. Každý graf je pro jednu velikost souborů, testovalo se na 2kB, 4kb … 1GB souborech. Velikost souborů v daném testu je vždy uvedena v záhlaví grafu.
Testovací adresáře byly vytvořeny ze souborů dané velikosti a splňovaly dvě podmínky. Maximální počet souborů byl omezen na deset tisíc a maximální velikost adresáře na 20GB. Výsledná velikost všech dat byla 220GB, a počet všech souborů potom asi 120 tisíc.
Následující výsledky jsou z prostředí:
- Operační systém: Debian 6 64b
- Procesor: Intel Core2 Quad Q8300
- Paměť: 8GB DDR2
- Diskové pole: MDADM RAID5 nad 5xHDD, chunk 64kB
- Pevné disky: 5x SAMSUNG HD103SJ
- Systém souborů: XFS
Výsledky testu, bez dalšího komentáře.
Hehe hodne zajimavy. na obou koncich je vlastne logaritmicky prubeh. konverguje to.