Resultados de la búsqueda a petición "large-data-volumes"

2 la respuesta

Insertar lote JDBC OutOfMemoryError

He escrito un metodoinsert() en el que estoy tratando de usar JDBC Batch para insertar medio millón de registros en una base de datos MySQL: public void insert(int nameListId, String[] names) { String sql = "INSERT INTO name_list_subscribers ...

16 la respuesta

¿Es posible cambiar argv o necesito crear una copia ajustada de él?

Mi aplicación tiene potencialmente una gran cantidad de argumentos pasados y quiero evitar que la memoria del golpe duplique los argumentos en una lista filtrada. Me gustaría filtrarlos en su lugar, pero estoy bastante seguro de que no es ...

3 la respuesta

¿Cómo trazar vectores de datos grandes con precisión en todos los niveles de zoom en tiempo real?

Tengo grandes conjuntos de datos (datos de 10 Hz, por lo que 864k puntos por 24 horas) que necesito trazar en tiempo real. La idea es que el usuario pueda hacer zoom y desplazarse en diagramas de dispersión altamente detallados. Los datos no ...

7 la respuesta

Almacenamiento eficiente de 7.300.000.000 filas

Cómo abordaría el siguiente problema de almacenamiento y recuperación? e agregarán aproximadamente 2.000.000 filas cada día (365 días / año) con la siguiente información por fila: id (identificador de fila único)entity_id (toma valores entre 1 ...

12 la respuesta

Uso de los resultados de desplazamiento de Hibernate para leer lentamente 90 millones de registros

Simplemente necesito leer cada fila de una tabla en mi base de datos MySQL usando Hibernate y escribir un archivo basado en ella. Pero hay 90 millones de filas y son bastante grandes. Entonces parecía que lo siguiente sería ...

2 la respuesta

psycopg2 COPY usando cursor.copy_from () se congela con entradas grandes

Considere el siguiente código en Python, usando psycopg2cursor objeto (algunos nombres de columna se cambiaron u omitieron para mayor claridad): filename='data.csv' file_columns=('id', 'node_id', 'segment_id', 'elevated', 'approximation', ...

6 la respuesta

Tablas MySQL grandes

Para una aplicación web que estoy desarrollando, necesito almacenar una gran cantidad de registros. Cada registro constará de una clave primaria y un valor de cadena único (short-ish). Espero tener aproximadamente 100 GB de almacenamiento ...

8 la respuesta

Trazado de conjuntos de datos muy grandes en R

¿Cómo puedo trazar un conjunto de datos muy grande en R? Me gustaría usar un diagrama de caja, violín o similar. Todos los datos no pueden caber en la memoria. ¿Puedo leer y calcular gradualmente los resúmenes necesarios para hacer estos ...

4 la respuesta

¿Qué cambia cuando su entrada tiene un tamaño de giga / terabyte?

Acabo de dar mi primer paso hoy en computación científica real hoy cuando me mostraron un conjunto de datos donde el archivo más pequeño es 48000 campos por 1600 filas (haplotipos para varias personas, para el cromosoma 22). Y esto se considera ...

4 la respuesta

El directorio NTFS tiene 100K entradas. ¿Cuánto aumento de rendimiento si se distribuye en 100 subdirectorios?

ContextoTenemos una biblioteca de almacenamiento en caché respaldada por un sistema de archivos propio. Actualmente tenemos problemas de rendimiento con una instalación debido a la gran cantidad de entradas (por ejemplo, hasta 100,000). El ...