Почему HDFS пишут один раз и читают несколько раз?

Я новый ученик Hadoop.

Читая об Apache HDFS, я узнал, что HDFS является однократной записью файловой системы. В некоторых других дистрибутивах (Cloudera) предусмотрена функция добавления. Будет полезно узнать рациональное за этим дизайнерским решением. По моему скромному мнению, этот дизайн создает множество ограничений для Hadoop и делает его подходящим для ограниченного набора проблем (проблем, подобных анализу журналов).

Комментарии экспертов помогут мне лучше понять HDFS.

Ответы на вопрос(4)

Ваш ответ на вопрос