<div dir="ltr">Nope, just heartbeat IP<br><br>On Thursday, October 3, 2013 10:30:12 AM UTC+2, Santi Nuñez-Cacho wrote:<blockquote class="gmail_quote" style="margin: 0;margin-left: 0.8ex;border-left: 1px #ccc solid;padding-left: 1ex;"><div dir="ltr">Are you using keepalived as LVS&nbsp;<br><br>On Tuesday, October 1, 2013 5:55:37 PM UTC+2, Mariusz Gronczewski wrote:<blockquote class="gmail_quote" style="margin:0;margin-left:0.8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Hi,<br><br>I have 2 clusers, 2 nodes each with same configuration. One node is serving most of the traffic (about 100 req/sec via STOMP/SSL, basically zero messages staying in queues) while other is "backup". Plugins are management, management_federation, federation and stomp)<br><br>I have noticed that on clusterA, master node eats above 2GB RAM (after 2 days of uptime, slowly growing), mostly in "Plugins" and "Binaries", and in clusterB both nodes are below 200MB RAM usage. Only difference is that on clusterA stats are gathered on same node serving traffic while on clusterB stats are on "secondary" node.<br><br>Software configuration is basically identical (I used puppet to deploy both at same time), and clusterA is on slower machines, but by no means overloaded (using maybe 5% CPU).<br><br>version: RabbitMQ 3.1.5.40927, <acronym title="Erlang R15B01 (erts-5.9.1) [source] [64-bit] [smp:4:4] [async-threads:30] [kernel-poll:true]">Erlang R15B01, but same thing occurs on current stable 3.1.5<br><br>Is there any way to debug what uses it and why it is leaking memory ?<br><br>Cheers<br>Mariusz<br></acronym></div></blockquote></div></blockquote></div>