Threadsafe FIFO Queue / Buffer

Muszę zaimplementować rodzaj bufora zadań. Podstawowe wymagania to:

Przetwarzaj zadania w jednym wątku w tleOdbieraj zadania z wielu wątkówPrzetwarzaj WSZYSTKIE odebrane zadania, tzn. Upewnij się, że bufor jest wyczerpany z buforowanych zadań po odebraniu sygnału stopKolejność otrzymanych zadań na wątek musi być zachowana

Myślałem o wdrożeniu go za pomocą kolejki jak poniżej. Byłbym wdzięczny za opinie na temat wdrożenia. Czy są jakieś inne jaśniejsze pomysły na wdrożenie czegoś takiego?

public class TestBuffer
{
    private readonly object queueLock = new object();
    private Queue<Task> queue = new Queue<Task>();
    private bool running = false;

    public TestBuffer()
    {
    }

    public void start()
    {
        Thread t = new Thread(new ThreadStart(run));
        t.Start();
    }

    private void run()
    {
        running = true;

        bool run = true;
        while(run)
        {
            Task task = null;
            // Lock queue before doing anything
            lock (queueLock)
            {
                // If the queue is currently empty and it is still running
                // we need to wait until we're told something changed
                if (queue.Count == 0 && running)
                {
                    Monitor.Wait(queueLock);
                }

                // Check there is something in the queue
                // Note - there might not be anything in the queue if we were waiting for something to change and the queue was stopped
                if (queue.Count > 0)
                {
                    task = queue.Dequeue();
                }
            }

            // If something was dequeued, handle it
            if (task != null)
            {
                handle(task);
            }

            // Lock the queue again and check whether we need to run again
            // Note - Make sure we drain the queue even if we are told to stop before it is emtpy
            lock (queueLock)
            {
                run = queue.Count > 0 || running;
            }
        }
    }

    public void enqueue(Task toEnqueue)
    {
        lock (queueLock)
        {
            queue.Enqueue(toEnqueue);
            Monitor.PulseAll(queueLock);
        }
    }

    public void stop()
    {
        lock (queueLock)
        {
            running = false;
            Monitor.PulseAll(queueLock);
        }
    }

    public void handle(Task dequeued)
    {
        dequeued.execute();
    }
}

questionAnswers(5)

yourAnswerToTheQuestion