<html><body><div style="font-family:times new roman, new york, times, serif;font-size:12pt"><div><span><br></span></div>Matthias,<br><br><div style="font-size: 12pt; font-family: times new roman,new york,times,serif;"><div style="font-size: 12pt; font-family: times new roman,new york,times,serif;">&gt; That is expected. When clients are publishing at a higher rate than the broker can write to disk, and consumers aren't draining the queues, then eventually rabbit will have to pause producers so it can page messages to disk and free up some memory.<br><br>i was able to increase the memory_high_watermark to 0.8 (6.4GB) and got 50 MB/sec publish rate all the way to 200 GB messages stored.&nbsp; the broker used 5.9 GB and there was no throttling on publishers.&nbsp;&nbsp; However, when i started 1000 consumers, the same old errors happen again as described in my first email:&nbsp; lots of consumers got errors on login or
 basic_consume:<br>http://lists.rabbitmq.com/pipermail/rabbitmq-discuss/2010-August/008420.html<br><br>i am using erlang R14B for this test.<br><br>&gt; That threshold setting via vm_memory_high_watermark definitely still works in 2.1.1.<br><br>yes it works.&nbsp; my /etc/rabbitmq/rabbitmq.config was a symlink instead of a regular file.&nbsp; rabbitmq-server script uses -f instead of -e to check file exist, so it does not work for symlink.<br><br>thanks.<br><br>-alex<br><br><br></div></div></div><br>

      </body></html>