Řešení 1:
Nakonec jsem se spokojil pouze s nastavením odchozí šířky pásma/latence na serveru a poté jsem totéž provedl na klientovi, čímž jsem efektivně dosáhl stejného výsledku.
Toto jsou příkazy, které jsem spustil na serveru a klientovi, abych dosáhl svých cílů:
Server:4 Mbit 50 ms
tc qdisc add dev eth0 handle 1: root htb default 11
tc class add dev eth0 parent 1: classid 1:1 htb rate 1000Mbps
tc class add dev eth0 parent 1:1 classid 1:11 htb rate 4Mbit
tc qdisc add dev eth0 parent 1:11 handle 10: netem delay 50ms
Klient:512 kbit 50 ms
tc qdisc add dev vmnet1 handle 1: root htb default 11
tc class add dev vmnet1 parent 1: classid 1:1 htb rate 1000Mbps
tc class add dev vmnet1 parent 1:1 classid 1:11 htb rate 512kbit
tc qdisc add dev vmnet1 parent 1:11 handle 10: netem delay 50ms
Řešení 2:
Nějakých 80-90 kByte/s je o tom, co očekávat od
tc filter add ... police rate 1.0mbit ...
Požadujete, aby příchozí data byla vyhozena, když dorazí rychlostí 1 mBit/s, to je asi 125 kByte/s. Vzdálený server pak klesne na podstatně nižší hodnotu (možná na polovinu, nejsem si jistý). Poté projdou všechny pakety, takže vzdálený konec pomalu nabírá rychlost, dokud opět nedosáhne 125 kByte/s. Získáte průměr propustnost výrazně pod 125 kByte/s, což je typické pro ingress shaping.
Trochu mě překvapuje, že rychlost by měla dosáhnout 2 MByte/s s již zavedeným filtrem ingress policy. Kde jsi měřil - u downstream klienta (programu) nebo u nějakého upstream routeru? Nebo jste možná nejprve zahájili připojení a teprve poté jste aktivovali filtr vstupních zásad?