Опять же, с темой Thread-Per-Client. Это действительно плохая практика.

я есть клиент / серверная инфраструктура. В настоящее время они используют TcpClient и TcpListener для отправки полученных данных между всеми клиентами и сервером.

В настоящее время я делаю, когда данные принимаются (в своем собственном потоке), они помещаются в очередь для обработки другим потоком, чтобы освободить сокет, чтобы он был готов и открыт для получения новых данных.

                // Enter the listening loop.
                while (true)
                {
                    Debug.WriteLine("Waiting for a connection... ");

                    // Perform a blocking call to accept requests.
                    using (client = server.AcceptTcpClient())
                    {
                        data = new List<byte>();

                        // Get a stream object for reading and writing
                        using (NetworkStream stream = client.GetStream())
                        {
                            // Loop to receive all the data sent by the client.
                            int length;

                            while ((length = stream.Read(bytes, 0, bytes.Length)) != 0)
                            {
                                var copy = new byte[length];
                                Array.Copy(bytes, 0, copy, 0, length);
                                data.AddRange(copy);
                            }
                        }
                    }

                    receivedQueue.Add(data);
                }

Однако я хотел выяснить, есть ли лучший способ сделать это. Например, если есть 10 клиентов, и все они хотят одновременно отправлять данные на сервер, один из них пройдет, в то время как все остальные потерпят неудачу. Или, если один клиент имеет медленное соединение и перегружает сокет, все остальные коммуникации будут остановлены. ,

Нет ли способа получить данные от всех клиентов одновременно и добавить полученные данные в очередь для обработки после завершения загрузки?