Unterschiede im libgdx-Koordinatensystem zwischen Rendering und Berührungseingabe

Ich habe einen Bildschirm (BaseScreen implementiert die Bildschirmoberfläche), der ein PNG-Bild rendert. Beim Klicken auf den Bildschirm wird das Zeichen an die berührte Position verschoben (zu Testzwecken).

public class DrawingSpriteScreen extends BaseScreen {
    private Texture _sourceTexture = null;
    float x = 0, y = 0;

    @Override
    public void create() {
        _sourceTexture = new Texture(Gdx.files.internal("data/character.png"));
    }

    .
    .
}

Wenn der Benutzer während des Renderns des Bildschirms den Bildschirm berührt hat, greife ich nach den Koordinaten der Berührung und verwende diese, um das Zeichenbild zu rendern.

@Override
public void render(float delta) {
    if (Gdx.input.justTouched()) {
        x = Gdx.input.getX();
        y = Gdx.input.getY();
    }

    super.getGame().batch.draw(_sourceTexture, x, y);
}

Das Problem sind die Koordinaten zum Zeichnen des Bildanfangs von der unteren linken Position (wie im LibGDX-Wiki angegeben) und die Koordinaten für die Berührungseingabe beginnen von der oberen linken Ecke. Ich habe also das Problem, dass ich unten rechts klicke und das Bild oben rechts verschiebe. Meine Koordinaten könnten X 675 Y 13 sein, was sich bei Berührung am oberen Bildschirmrand befinden würde. Das Zeichen wird jedoch unten angezeigt, da die Koordinaten unten links beginnen.

Warum ist was? Warum sind die Koordinatensysteme umgekehrt? Benutze ich die falschen Objekte, um dies zu bestimmen?

Antworten auf die Frage(4)

Ihre Antwort auf die Frage