Libgdx coordina las diferencias del sistema entre la representación y la entrada táctil.

Tengo una pantalla (BaseScreen implementa la interfaz de pantalla) que representa una imagen PNG. Al hacer clic en la pantalla, mueve el personaje a la posición tocada (para propósitos de prueba).

public class DrawingSpriteScreen extends BaseScreen {
    private Texture _sourceTexture = null;
    float x = 0, y = 0;

    @Override
    public void create() {
        _sourceTexture = new Texture(Gdx.files.internal("data/character.png"));
    }

    .
    .
}

Durante el renderizado de la pantalla, si el usuario tocó la pantalla, tomo las coordenadas del toque y luego las uso para renderizar la imagen del personaje.

@Override
public void render(float delta) {
    if (Gdx.input.justTouched()) {
        x = Gdx.input.getX();
        y = Gdx.input.getY();
    }

    super.getGame().batch.draw(_sourceTexture, x, y);
}

El problema son las coordenadas para dibujar el inicio de la imagen desde la posición inferior izquierda (como se indica en el Wiki LibGDX) y las coordenadas para la entrada táctil comienzan desde la esquina superior izquierda. Entonces, el problema que tengo es que hago clic en la parte inferior derecha, mueve la imagen a la parte superior derecha. Mis coordenadas pueden ser X 675 Y 13, que al tocarlas estarían cerca de la parte superior de la pantalla. Pero el carácter se muestra en la parte inferior, ya que las coordenadas comienzan desde la parte inferior izquierda.

Por que es que ¿Por qué se invierten los sistemas de coordenadas? ¿Estoy usando los objetos equivocados para determinar esto?