Wie füge ich einen vollständigen Phrasen-Tokenizer in Nest for Elasticsearch hinzu?

Wenn ich eine Suche mit Facetten erstelle, möchte ich, dass sich die Facettenergebnisse auf die gesamte Phrase beziehen, nicht auf das einzelne Wort. und ich möchte, dass es NICHT zwischen Groß- und Kleinschreibung unterscheidet - wie es "not_analyzed" tun würde.

Wenn ich zum Beispiel ein Musik-JSON-Objekt habe und die Facettenergebnisse nach Genre organisieren möchte, möchte ich jedes Genre als den gesamten Genrebegriff (Rhythmus und Blues) und nicht als eine Facette für "Rhythmus" und eine für "Blues" sehen ', und ich möchte in der Lage sein, nach' Rhythm and Blues 'zu suchen und es mit' Rhythm and Blues 'abzustimmen (Groß- / Kleinschreibung beachten).

In der elasticsearch-Dokumentation wird anscheinend die Verwendung eines benutzerdefinierten Analysators für Tokenizer und Kleinbuchstabenfilter empfohlen.

Hier ist der Vorschlag von elasticsearch, den ich erwähnt habe: (mittlere Seite)http://www.elasticsearch.org/blog/starts-with-phrase-matching/

Ich möchte etwas sagen können (in meinem POCO in Pseudocode):

[ElasticProperty(Analyzer = "tokenizer, lowercase"]
public string Genre { get; set; }

Antworten auf die Frage(1)

Ihre Antwort auf die Frage