Laravel Artisan Queues - alto uso de cpu

Eu configurei filas no Laravel para meus scripts de processamento. Estou usando o beanstalkd e o supervisord. Existem 6 tubos diferentes para diferentes tipos de processamento.

A questão é que, para cada tubo, o artesão constantemente gera trabalhadores a cada segundo. O código do trabalhador parece dormir por 1 segundo e, em seguida, o segmento de trabalho usa 7-15% cpu, multiplique isso por 6 tubos ... e eu gostaria de ter vários trabalhadores por tubo .. meu cpu está sendo comido.

Eu tentei mudar o sono de 1 segundo para 10 segundos. Isso ajuda, mas ainda há um enorme pico de CPU a cada 10 segundos quando os funcionários acordam de volta. Eu não estou nem mesmo processando nada neste momento porque as filas estão completamente vazias, é simplesmente os trabalhadores procurando por algo para fazer.

Eu também testei para ver o uso de CPU de laravel quando eu atualizei a página em um brower e que estava pairando em torno de 10% .. Eu estou em uma instância rackspace low-end agora para que pudesse explicar, mas ainda assim ... parece os trabalhadores fazem uma grande instância toda vez que acordam.

Não há como resolver isso? Eu só tenho que colocar um monte de dinheiro em um servidor mais caro só para poder ouvir para ver se um trabalho está pronto?

EDITAR:

Encontrei uma solução ... foi NÃO usar a fila de artesãos: ouvinte ou fila: trabalho eu olhei para o código da fila e não parece haver uma maneira de contornar esse problema, requer laravel para carregar toda vez que um trabalhador verifica para mais trabalho para fazer.

Em vez disso, escrevi meu próprio ouvinte usando o pheanstalk. Eu ainda estou usando laravel para empurrar coisas para a fila, então meu ouvinte personalizado está analisando os dados da fila e, em seguida, acionando um comando de artesão para ser executado.

Agora meu uso de CPU para meus ouvintes está em% 0, a única vez que meu cpu dispara agora é quando realmente encontra trabalho para fazer e, em seguida, dispara o comando, estou bem com isso.