Suchergebnisse für Anfrage "logstash"

0 die antwort

Aufteilen eines Logstash-Ereignisses, das mehrere Male dasselbe Muster enthält

Ich lese eine XML-formatierte Eingabe und versuche, jede Zeile einer HTML-Tabelle als separates Ereignis zu extrahieren. Zum Beispiel, wenn meine Eingabe ist: <xml> <table> <tr> <td> 1 </td> <td> 2 </td> </tr> <tr> <td> 3 </td> <td> 4 </td> ...

1 die antwort

Einstellen von Elasticsearch Analyzer für neue Felder im Logstash

Durch die Nutzung

1 die antwort

logstash + elasticsearch: Lädt dieselben Daten neu

Logstash (1.3.1) wurde erstellt, um Daten an elasticsearch (0.9.5) zu senden.Meine Logstash-Konfigurationsdatei lautet

TOP-Veröffentlichungen

1 die antwort

Analysieren von JSON in Logstash

Ich habe einige Protokolldateien von generiertLog4J2 [http://logging.apache.org/log4j/2.x/]. Ich gebe die Protokolle mit dem JSONLayout in der Konfigurationsdatei log4j2.xml in eine .json-Datei aus. Mein JSONLayout ist wie folgt ...

1 die antwort

Felder aus dem Logstash des Eingabedateipfads extrahieren?

Ich möchte meine Protokolldateien aus verschiedenen Verzeichnissen lesen, z.Server1, Server2... Server1 hat Unterverzeichnisse alscron, auth... in diesen Unterverzeichnissen befindet sich daslog file beziehungsweise. Also denke ich darüber ...

1 die antwort

Aktualisieren der Standardeinstellung index number_of_replicas für neue Indizes

Ich habe versucht, die Anzahl der Replikate wie folgt zu aktualisieren Dokumentation [http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/indices-update-settings.html] curl -XPUT 'localhost:9200/_settings' -d ' { "index" : { ...

1 die antwort

Kann logstash direkt aus dem Remote-Protokoll lesen?

Ich bin neu im Logstash und lese seit ein paar Tagen darüber. Wie die meisten Leute versuche ich, ein zentrales Protokollierungssystem zu haben und Daten in elasticsearch zu speichern und später mit kibana die Daten zu visualisieren. Meine ...

1 die antwort

Probleme mit logstash _grokparsefailure

Ich habe Probleme mit der Grok-Analyse. In ElasticSearch / Kibana haben die übereinstimmenden Zeilen das Tag _grokparsefailure. Hier ist meine Logstash-Konfiguration: input { file { type => logfile path => ["/var/log/mylog.log"] } } filter { ...

1 die antwort

Logstash - Verwendung des Memorize Plugins

Versuche das "memorize" Plugin so zu benutzen: if [message] =~ /matching event/ { grok { match => [ "message", "%{mymatch:datetime}" ] } memorize { field => [datetime] } } if [message] =~ /another event/ { mutate { add_field => { datetime => ...

2 die antwort

Wie werden die Unit- oder Integrationstests für die Logstash-Konfiguration implementiert?