Laravel Artisan Queues - alto uso de la CPU

He configurado colas en Laravel para mis scripts de procesamiento. Estoy usando beanstalkd y supervisor. Hay 6 tubos diferentes para diferentes tipos de procesamiento.

El problema es que, para cada tubo, el artesano está generando constantemente trabajadores cada segundo. El código de trabajador parece estar inactivo durante 1 segundo y luego el subproceso de trabajo usa 7-15% de CPU, multiplíquelo por 6 tubos ... y me gustaría tener varios trabajadores por tubo ... mi CPU se está consumiendo.

Intenté cambiar el sueño de 1 segundo a 10 segundos. Esto ayuda, pero todavía hay un gran aumento de CPU cada 10 segundos cuando los trabajadores se vuelven a despertar. Ni siquiera estoy procesando nada en este momento porque las colas están completamente vacías, simplemente son los trabajadores que buscan algo que hacer.

También probé para ver el uso de la CPU de laravel cuando actualicé la página en un navegador y eso estaba rondando el 10%. Ahora mismo estoy en una instancia de espacio de rack de bajo nivel, por lo que podría explicarlo, pero aún así ... parece que los trabajadores hacen girar una instancia de laravel cada vez que se despiertan.

¿No hay manera de resolver esto? ¿Tengo que invertir mucho dinero en un servidor más caro para poder escuchar y ver si un trabajo está listo?

EDITAR:

Encontré una solución ... era NO usar la cola artesanal: oyente o cola: trabajo. Miré el código de la cola y no parece haber una solución para este problema, se requiere carga para cargar cada vez que un trabajador verifica para más trabajo por hacer.

En su lugar, escribí mi propio oyente usando pheanstalk. Todavía estoy usando laravel para empujar las cosas en la cola, luego mi escucha personalizada está analizando los datos de la cola y luego activando un comando artesanal para que se ejecute.

Ahora, mi uso de la CPU para mis oyentes está bajo% 0, la única vez que mi CPU se dispara ahora es cuando realmente encuentra trabajo que hacer y luego activa el comando, estoy bien con eso.