Результаты поиска по запросу "cassandra"

1 ответ

Вот

аюсь вставить 1500 записей с помощью весны в Кассандру. У меня есть список POJO, которые содержат эти 1500 записей, и когда я вызываю saveAll или вставляю эти данные, требуется 30 секунд для завершения этой операции. Может кто-нибудь предложить ...

1 ответ

спасибо за ваш ответ, сэр, я не могу понять это ясно (искра новичка). Можете ли вы привести пример?

аю какую-то обработку в spark и хочу реализовать функциональность, которая независимо от выполняемой обработки, я хочу запланировать таймер (с интервалом в 5 минут), который сохранит некоторые данные в Cassandra (или, скажем, любой другой ...

1 ответ

, Я надеюсь, что такая же реализация предусмотрена и для Scala.

учаю данные откуда-то и вставляю их вcassandra ежедневно, то мне нужно получить данные изcassandra на целую неделю и сделать некоторую обработку и вставить результат обратно наcassandra. У меня много записей, каждая из которых выполняет ...

ТОП публикаций

3 ответа

 Я не вижу hotpac как часть первичного ключа. Кассандра обязана предоставлять ключ раздела в поиске на основе параметров.

я проблемы со столом в Кассандре. Ниже то, что я сделал: CREATE KEYSPACE tfm WITH REPLICATION = {'class': 'SimpleStrategy', 'replication_factor': 1 }; Я работаю на одной машине. CREATE TABLE tfm.foehis(hocpny text, hocol text,honumr ...

1 ответ

Технически возможно обойти это, с осторожным распределением ресурсов и использованием пулов планирования уровня менеджера или даже отдельного менеджера кластера с его собственным набором или ресурсами, но это не то, для чего предназначен Spark, он не поддерживается и в целом приведет к хрупкой и запутанной конструкции, где корректность зависит от деталей конфигурации, выбора конкретного менеджера кластера и общего использования кластера.

у Spark Jobs, которые говорят с Кассандрой в Datastax. Иногда при выполнении последовательности шагов в задании Spark легче просто получить новый RDD, чем присоединиться к старому. Вы можете сделать это, позвонивSparkContext [getOrCreate][1] ...

1 ответ

Спасибо @Alex Ott, я попытаюсь добавить credentials_validity_in_ms в '0', в дополнение к role_validity_in_ms, permissions_validity_in_ms = 0

ользую аутентификацию и авторизацию в настройках Cassandra для одного узла, но часто получаю следующую ошибку в журналах сервера Cassandra: ERROR [SharedPool-Worker-71] 2018-06-01 10:40:36,661 ErrorMessage.java:338 - Unexpected exception during ...

1 ответ

Все время заблокировано является мерой того, сколько задач было заблокировано с момента последнего запуска Cassandra, уменьшать не имеет смысла. Вам не нужно, но это может помочь. Это может быть причиной истечения времени ожидания запроса, но неправильный запрос / таблица также могут быть причиной его блокировки. Посмотрите на прокси-гистограммы и гистограммы таблиц, чтобы найти таблицу с медленными запросами и отладку оттуда. Оптимальное значение: зависит от того, было ли единственное оптимальное значение, оно будет установлено на него. Это зависит от варианта использования и модели данных.

ой ссылке я получил несколько замечаний по поводу запросов на транспортировку в Кассандре:Каковы местные транспортные запросы в Кассандре? [https://stackoverflow.com/questions/32456843/what-are-native-transport-requests-in-cassandra] Насколько я ...

2 ответа

Название вопроса неверно - это сообщение связано с совершенно другой настройкой ...

у эту ошибку постоянно в debug.log в Кассандре, WARN [SharedPool-Worker-2] 2018-05-16 08:33:48,585 BatchStatement.java:287 - Batch of prepared statements for [test, test1] is of size 6419, exceeding specified threshold of 5120 by 1299.В ...

2 ответа

, После этого каждый раз, когда вы пытаетесь запустить, вы видите следующую опцию jvm, которую вы должны прокомментировать. 10-15 минут и вуаля.

я совершенно новая установка Windows 10 Home с совершенно новой установкой JDK 10.0.1 (что рекомендовано Oracle, когда я заходил на сайт загрузки JDK). Я только что скачал Cassandra 3.11.2, un-tar ' Сделайте это и поместите каталог bin в мой ...

2 ответа

https://spark.apache.org/docs/latest/configuration.html#available-properties

дал скрипт pyspark, который прекрасно работает, когда я выполняю его сspark-submit: spark-submit --packages com.datastax.spark:spark-cassandra-connector_2.11:2.0.6 --conf spark.cassandra.connection.host=12.34.56.68 test_cassandra.pyПоскольку ...