Может ли Apache Flume HDFS принять динамический путь для записи?

Я новичок в Apache Flume.
Я пытаюсь увидеть, как я могу получить JSON (в качестве источника http), проанализировать его и сохранить его в динамический путь в hdfs в соответствии с содержимым.
Например:
если JSON это:

[{   
  "field1" : "value1",
  "field2" : "value2"
}]

тогда путь hdfs будет:
/ Некоторые по умолчанию корня-путь / значение1 / значение2 / некоторое значение имя-файл
Есть ли такая конфигурация лотка, которая позволяет мне это сделать?

Вот моя текущая конфигурация (принимает json через http и сохраняет его в пути в соответствии с меткой времени):

#flume.conf: http source, hdfs sink

# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1

# Describe/configure the source
a1.sources.r1.type =  org.apache.flume.source.http.HTTPSource
a1.sources.r1.port = 9000
#a1.sources.r1.handler = org.apache.flume.http.JSONHandler

# Describe the sink
a1.sinks.k1.type = hdfs
a1.sinks.k1.hdfs.path = /user/uri/events/%y-%m-%d/%H%M/%S
a1.sinks.k1.hdfs.filePrefix = events-
a1.sinks.k1.hdfs.round = true
a1.sinks.k1.hdfs.roundValue = 10
a1.sinks.k1.hdfs.roundUnit = minute

# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100

# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1

Спасибо!

Ответы на вопрос(1)

Ваш ответ на вопрос