Was genau ist der Parameter "resolution" von numpy float

Ich bin auf der Suche nach mehr Verständnis für den "Resolution" -Parameter eines numpy float (ich denke, jeder computerdefinierte float für diese Angelegenheit).

Betrachten Sie das folgende Skript:

import numpy as np
a = np.finfo(10.1)
print a

Ich erhalte eine Ausgabe, die unter anderem Folgendes ausgibt:

precision=15   resolution= 1.0000000000000001e-15
max= 1.797(...)e+308
min= -max

Die Numpy-Dokumentation gibt Folgendes an: "Auflösung: (Gleitkommazahl des entsprechenden Typs) Die ungefähre dezimale Auflösung dieses Typs, d. H. 10 ** - Genauigkeit."Quell

resolution wird von precision abgeleitet, aber leider ist diese Definition etwas kreisförmig. "precision (int): Die ungefähre Anzahl der Dezimalstellen, auf die diese Art von float genau ist."Quell

ch verstehe, dass Gleitkommazahlen nur endliche Darstellungen von reellen Zahlen sind und daher Fehler in ihrer Darstellung aufweisen, und dass die Genauigkeit wahrscheinlich ein Maß für diese Abweichung ist. Aber bedeutet das praktisch, dass ich mit fehlerhaften Ergebnissen rechnen muss, wenn ich Operationen vorbereite, bei denen Zahlen verwendet werden, die unter der Auflösung liegen? Wie kann ich den Fehler, beispielsweise durch Addition, zweier Gleitkommazahlen aufgrund ihrer Genauigkeit quantifizieren? Wenn die Auflösung so "groß" wie 1e-15 ist, warum sollte die kleinste zulässige Zahl in der Größenordnung von 1e-308 liegen?

Danke im Voraus