Resultados de la búsqueda a petición "python"

2 la respuesta

Evite `logger = logging.getLogger (__ name __)`

Configuramos el registro como los documentos de django nos dijeron: https://docs.djangoproject.com/en/2.1/topics/logging/#using-logging [https://docs.djangoproject.com/en/2.1/topics/logging/#using-logging] # import the logging library import ...

1 la respuesta

Recuperando dns públicos de instancia EC2 con BOTO3

Estoy usando ipython para comprender Boto3 e interactuar con instancias de EC2. Aquí está el código que estoy usando para crear una instancia: import boto3 ec2 = boto3.resource('ec2') client = boto3.client('ec2') new_instance = ...

3 la respuesta

reemplazar cadena en el marco de datos de pandas

Tengo un marco de datos con varias columnas. Quiero mirar una columna y si alguna de las cadenas de la columna contiene @, quiero reemplazarlas con otra cadena. ¿Cómo haría para hacer esto?

1 la respuesta

Las filas devueltas por pyodbc no son serializables JSON

Estoy tratando de recuperar las filas de una tabla usando la biblioteca pyobc en Python. Pude recuperar las tablas y los campos de una tabla con éxito. Ahora tengo una tabla llamada "apx_roomtypes" con los datos de la siguiente manera, ...

6 la respuesta

¿Dónde llamo a la función BatchNormalization en Keras?

Si quiero usar la función BatchNormalization en Keras, ¿debo llamarla solo una vez al principio? Leí esta documentación para ello:http://keras.io/layers/normalization/ [http://keras.io/layers/normalization/] No veo dónde se supone que debo ...

1 la respuesta

¿Cómo aplanar listas anidadas en PySpark?

Tengo una estructura RDD como: rdd = [[[1],[2],[3]], [[4],[5]], [[6]], [[7],[8],[9],[10]]]y quiero que se convierta: rdd = [1,2,3,4,5,6,7,8,9,10]¿Cómo escribo un mapa o reduzco la función para que funcione?

1 la respuesta

diferencia de rendimiento del espacio de nombres global vs. local

¿Por qué es que ejecutar un conjunto de comandos en una función: def main(): [do stuff] return something print(main())tenderá a correr1.5x a3x veces más rápido en python que ejecutar comandos en el nivel superior: [do stuff] print(something)

4 la respuesta

Cómo calcular la suma acumulativa usando sqlContext

Sé que podemos usarFunción de ventana en pyspark [https://databricks.com/blog/2015/07/15/introducing-window-functions-in-spark-sql.html] para calcular la suma acumulativa. Pero Window solo se admite en HiveContext y no en SQLContext. Necesito ...

2 la respuesta

Entendiendo los hilos del demonio Python

Obviamente, he entendido mal algo fundamental sobre el atributo daemon de un objeto Python Thread. Considera lo siguiente: daemonic.py import sys, threading, time class TestThread(threading.Thread): def __init__(self, daemon): ...

1 la respuesta

Filtrado de RDD según la condición y la extracción de datos coincidentes en Spark Python

Tengo los datos como, cl_id cn_id cn_value 10004, 77173296 ,390.0 10004, 77173299 ,376.0 10004, 77173300 ,0.0 20005, 77173296 ,0.0 20005, 77173299 ,6.0 2005, 77438800 ,2.0ID de Cl_id: 10004, 20005 Filtrar por 10004 10004, 77173296 ,390.0 ...