Suchergebnisse für Anfrage "logstash"
Aufteilen eines Logstash-Ereignisses, das mehrere Male dasselbe Muster enthält
Ich lese eine XML-formatierte Eingabe und versuche, jede Zeile einer HTML-Tabelle als separates Ereignis zu extrahieren. Zum Beispiel, wenn meine Eingabe ist: <xml> <table> <tr> <td> 1 </td> <td> 2 </td> </tr> <tr> <td> 3 </td> <td> 4 </td> ...
Einstellen von Elasticsearch Analyzer für neue Felder im Logstash
Durch die Nutzung
logstash + elasticsearch: Lädt dieselben Daten neu
Logstash (1.3.1) wurde erstellt, um Daten an elasticsearch (0.9.5) zu senden.Meine Logstash-Konfigurationsdatei lautet
Analysieren von JSON in Logstash
Ich habe einige Protokolldateien von generiertLog4J2 [http://logging.apache.org/log4j/2.x/]. Ich gebe die Protokolle mit dem JSONLayout in der Konfigurationsdatei log4j2.xml in eine .json-Datei aus. Mein JSONLayout ist wie folgt ...
Felder aus dem Logstash des Eingabedateipfads extrahieren?
Ich möchte meine Protokolldateien aus verschiedenen Verzeichnissen lesen, z.Server1, Server2... Server1 hat Unterverzeichnisse alscron, auth... in diesen Unterverzeichnissen befindet sich daslog file beziehungsweise. Also denke ich darüber ...
Aktualisieren der Standardeinstellung index number_of_replicas für neue Indizes
Ich habe versucht, die Anzahl der Replikate wie folgt zu aktualisieren Dokumentation [http://www.elasticsearch.org/guide/en/elasticsearch/reference/current/indices-update-settings.html] curl -XPUT 'localhost:9200/_settings' -d ' { "index" : { ...
Kann logstash direkt aus dem Remote-Protokoll lesen?
Ich bin neu im Logstash und lese seit ein paar Tagen darüber. Wie die meisten Leute versuche ich, ein zentrales Protokollierungssystem zu haben und Daten in elasticsearch zu speichern und später mit kibana die Daten zu visualisieren. Meine ...
Probleme mit logstash _grokparsefailure
Ich habe Probleme mit der Grok-Analyse. In ElasticSearch / Kibana haben die übereinstimmenden Zeilen das Tag _grokparsefailure. Hier ist meine Logstash-Konfiguration: input { file { type => logfile path => ["/var/log/mylog.log"] } } filter { ...
Logstash - Verwendung des Memorize Plugins
Versuche das "memorize" Plugin so zu benutzen: if [message] =~ /matching event/ { grok { match => [ "message", "%{mymatch:datetime}" ] } memorize { field => [datetime] } } if [message] =~ /another event/ { mutate { add_field => { datetime => ...