Resultados de la búsqueda a petición "python"
Evite `logger = logging.getLogger (__ name __)`
Configuramos el registro como los documentos de django nos dijeron: https://docs.djangoproject.com/en/2.1/topics/logging/#using-logging [https://docs.djangoproject.com/en/2.1/topics/logging/#using-logging] # import the logging library import ...
Recuperando dns públicos de instancia EC2 con BOTO3
Estoy usando ipython para comprender Boto3 e interactuar con instancias de EC2. Aquí está el código que estoy usando para crear una instancia: import boto3 ec2 = boto3.resource('ec2') client = boto3.client('ec2') new_instance = ...
reemplazar cadena en el marco de datos de pandas
Tengo un marco de datos con varias columnas. Quiero mirar una columna y si alguna de las cadenas de la columna contiene @, quiero reemplazarlas con otra cadena. ¿Cómo haría para hacer esto?
Las filas devueltas por pyodbc no son serializables JSON
Estoy tratando de recuperar las filas de una tabla usando la biblioteca pyobc en Python. Pude recuperar las tablas y los campos de una tabla con éxito. Ahora tengo una tabla llamada "apx_roomtypes" con los datos de la siguiente manera, ...
¿Dónde llamo a la función BatchNormalization en Keras?
Si quiero usar la función BatchNormalization en Keras, ¿debo llamarla solo una vez al principio? Leí esta documentación para ello:http://keras.io/layers/normalization/ [http://keras.io/layers/normalization/] No veo dónde se supone que debo ...
¿Cómo aplanar listas anidadas en PySpark?
Tengo una estructura RDD como: rdd = [[[1],[2],[3]], [[4],[5]], [[6]], [[7],[8],[9],[10]]]y quiero que se convierta: rdd = [1,2,3,4,5,6,7,8,9,10]¿Cómo escribo un mapa o reduzco la función para que funcione?
diferencia de rendimiento del espacio de nombres global vs. local
¿Por qué es que ejecutar un conjunto de comandos en una función: def main(): [do stuff] return something print(main())tenderá a correr1.5x a3x veces más rápido en python que ejecutar comandos en el nivel superior: [do stuff] print(something)
Cómo calcular la suma acumulativa usando sqlContext
Sé que podemos usarFunción de ventana en pyspark [https://databricks.com/blog/2015/07/15/introducing-window-functions-in-spark-sql.html] para calcular la suma acumulativa. Pero Window solo se admite en HiveContext y no en SQLContext. Necesito ...
Entendiendo los hilos del demonio Python
Obviamente, he entendido mal algo fundamental sobre el atributo daemon de un objeto Python Thread. Considera lo siguiente: daemonic.py import sys, threading, time class TestThread(threading.Thread): def __init__(self, daemon): ...
Filtrado de RDD según la condición y la extracción de datos coincidentes en Spark Python
Tengo los datos como, cl_id cn_id cn_value 10004, 77173296 ,390.0 10004, 77173299 ,376.0 10004, 77173300 ,0.0 20005, 77173296 ,0.0 20005, 77173299 ,6.0 2005, 77438800 ,2.0ID de Cl_id: 10004, 20005 Filtrar por 10004 10004, 77173296 ,390.0 ...