Результаты поиска по запросу "bigdata"

1 ответ

Похоже, мы должны проверить проблему Spark для этого. Они, вероятно, знают, что происходит при преобразовании этого значения с плавающей запятой.

я есть датафрейм с грубой структурой, подобной следующей: +-------------------------+-------------------------+--------+ | timestamp | adj_timestamp | values | +-------------------------+-------------------------+--------+ | ...

3 ответа

Чтение больших данных с фиксированной шириной

Как я могу прочитать большие данные с фиксированной шириной? Я читаюэто [https://stackoverflow.com/questions/1727772/quickly-reading-very-large-tables-as-dataframes-in-r] вопрос и попробовал несколько советов, но все ответы для данных с ...

1 ответ

Большое спасибо за ответ. но на самом деле мне нужно проверить, является ли схема куста той же самой Sas-схемой, поэтому мне нужно указать "timestamptype" в кусте с Datetime в SAS, который имеет тип NUm, а также тип Integer в кусте имеет соответствующий тип данных как NUM в SAS, так что в основном мне также нужно сравнить столбец «Формат» в схеме SAS со схемой улья.

вниваю два кадра данных (в основном это схемы двух разных источников данных, один из куста, а другой из SAS9.2) Мне нужно проверить структуру для обоих источников данных, поэтому я преобразовал схему в два кадра данных, и вот они: Схема SAS ...

ТОП публикаций

3 ответа

 файл.

смог найти простых английских объяснений относительно файлов Apache Parquet. Такие как: Кто они такие?Нужен ли мне Hadoop или HDFS для их просмотра / создания / хранения?Как я могу создать паркетные файлы?Как я могу просмотреть ...

1 ответ

 хранить данные (используя сжатие журнала, чтобы сохранить его навсегда).

ользую потоки Kafka для обработки данных в реальном времени, в задачах потоков Kafka мне нужно получить доступ к MySQL для запроса данных, и мне нужно вызвать другую службу restful. Все операции являются синхронными. Я боюсь, что синхронный ...

1 ответ

Здорово! Я рассмотрю варианты объединения этих объектов JSON в один файл JSON. Спасибо за помощь!

абатываю очень большой JSON, в котором мне нужно отфильтровать внутренние объекты JSON, используя значение ключа. Мой JSON выглядит следующим ...

2 ответа

Как сделать объединение в Elasticsearch - или на уровне Lucene

Каков наилучший способ сделать эквивалент SQL-соединения в Elasticsearch? У меня есть настройки SQL с двумя большими таблицами: люди и предметы. Человек может владетьмного Предметы. Строки Person и Item могут изменяться (то есть обновляться). Я ...

1 ответ

Нет, ошибки нет, просто не так, как она работает.

делил данные в HDFS. В какой-то момент я решил обновить его. Алгоритм: Читайте новые данные из темы кафки.Узнайте новые имена разделов данных.Загрузите данные из разделов с этими именами, которые есть в HDFS.Объединить данные HDFS с новыми ...

2 ответа

* Использование текстового сканирования для чтения больших текстовых файлов и функции отображения памяти для чтения больших двоичных файлов.

жен работать с большим файлом CSV, до 2 ГБ. Точнее говоря, я должен загрузить все эти данные в базу данных mySQL, но прежде чем мне придется сделать несколько вычислений по этому поводу, я должен сделать все это в MATLAB (мой супервайзер хочет ...

2 ответа

Есть ли хороший способ избежать глубокого копирования памяти или сократить время, затрачиваемое на многопроцессорность?

Я делаю модуль вычисления «больших данных» на основе памяти в режиме реального времени, используя модуль Pandas среды Python. Поэтому время отклика является качеством этого модуля и очень критично и важно. Для обработки большого набора данных я ...