Resultados de la búsqueda a petición "tensorflow-datasets"

1 la respuesta

¿Cómo cambiar entre el conjunto de datos de capacitación y validación con tf.MonitoredTrainingSession?

Quiero usarfeedable diseño de iterador en la API de Dataset de tensorflow, para que pueda cambiar a datos de validación después de algunos pasos de entrenamiento. Pero si cambié a los datos de validación, finalizará toda la sesión. El siguiente ...

1 la respuesta

Ingrese múltiples archivos en el conjunto de datos de Tensorflow

Tengo el siguiente input_fn. def input_fn(filenames, batch_size): # Create a dataset containing the text lines. dataset = tf.data.TextLineDataset(filenames).skip(1) # Parse each line. dataset = dataset.map(_parse_line) # Shuffle, repeat, and ...

1 la respuesta

Tensorflow Dataset API: dataset.batch (n) .prefetch (m) prefetches m lotes o samples?

Si yo uso dataset.batch(n).prefetch(m),¿Se tomarán m lotes o m muestras?

1 la respuesta

Cómo reemplazar la entrada de un gráfico guardado, p. un marcador de posición por un iterador de conjunto de datos?

Tengo un gráfico de Tensorflow guardado que consume datos a través de unplaceholder con unfeed_dict param. sess.run(my_tensor, feed_dict={input_image: image})Porque alimenta los datos con unDataset Iterator esmás ...

1 la respuesta

¿Usar feed_dict es más de 5 veces más rápido que usar la API de conjunto de datos?

Creé un conjunto de datos en formato TFRecord para realizar pruebas. Cada entrada contiene 200 columnas, llamadasC1 - C199, cada una es una lista de cadenas y unalabel columna para denotar las etiquetas. El código para crear los datos se puede ...

1 la respuesta

¿Cómo divido los conjuntos de datos de Tensorflow?

Tengo un conjunto de datos de tensorflow basado en un archivo .tfrecord. ¿Cómo divido el conjunto de datos en conjuntos de datos de prueba y entrenamiento? P.ej. ¿70% de entrenamiento y 30% de prueba? Editar Mi versión de Tensorflow: 1.8 He ...

2 la respuesta

Tensorflow v1.10: ¿almacenar imágenes como cadenas de bytes o por canal?

Contexte sabe que, por el momento, la documentación de TF's Record deja mucho que desear. Mi pregunta se refiere a lo que es óptimo para almacenar: una secuenciaits probabilidades de clase por elemento, y alguna información (¿contexto?) (por ...

1 la respuesta

La mejor manera de procesar terabytes de datos en gcloud ml-engine con keras

Quiero entrenar un modelo en aproximadamente 2 TB de datos de imagen en el almacenamiento de gcloud. Guardé los datos de la imagen como registros separados e intenté usar la API de datos de tensorflow siguiendo este ...