Результаты поиска по запросу "window-functions"
отставание оконной функции spark sql
Я смотрю на функцию слайда окна для Spark DataFrame в Spark SQL, Scala.У меня есть датафрейм с колонками Col1, Col1, Col1, date.
будет суммировать всю последовательность {0, 1} перед текущей строкой. Это правда?
я есть некоторые данные, которые я хочу сгруппировать по определенному столбцу, а затем объединить ряд полей на основе скользящего временного окна из группы....
большое спасибо! Я попробую! :)
я есть такая таблица:
Функции окна или общие табличные выражения: подсчитывать предыдущие строки в пределах диапазона
Я хотел бы использовать оконную функцию, чтобы определить для каждой строки общее количество предыдущих записей, соответствующих определенным критериям. Конкретный пример: clone=# \d test Table "pg_temp_2.test" Column | Type | ...
Оконные функции не поддерживают рекурсию, но здесь это не требуется. Этот тип сессионизации может быть легко обработан с накопленной суммой:
я есть следующие данные, показывающие доход от покупок. +-------+--------+-------+ |user_id|visit_id|revenue| +-------+--------+-------+ | 1| 1| 0| | 1| 2| 0| | 1| 3| 0| | 1| 4| 100| | 1| 5| 0| | 1| 6| 0| | 1| 7| 200| | 1| 8| 0| | 1| 9| 10| ...
- максимально допустимая ошибка оценки, которая позволяет настроить компромисс между точностью и производительностью.
сто попытался сделать countDistinct над окном и получил эту ошибку: AnalysisException: u'Distinct window functions are not supported: count(distinct color#1926)Есть ли способ сделать четкий подсчет за окном в pyspark? Вот пример кода: from ...
Вопрос в том, как отфильтровать
я есть две модели в Django, A и B. Каждому A назначено несколько B, и B упорядочены, что делается с полем B.order_index, который считает значение от нуля для любого A. Я хочу написать запрос, который проверяет, есть ли A, где некоторые из B ...
Панды получают лучшие n записей в каждой группе
Предположим, у меня есть DataFrame панд, как это: >>> df = pd.DataFrame({'id':[1,1,1,2,2,2,2,3,4],'value':[1,2,3,1,2,3,4,1,1]}) >>> df id value 0 1 1 1 1 2 2 1 3 3 2 1 4 2 2 5 2 3 6 2 4 7 3 1 8 4 1Я хочу получить новый DataFrame с двумя верхними ...