Präzision (Informatik) - Precision (computer science)

In der Informatik ist die Genauigkeit einer numerischen Größe ein Maß für das Detail, in dem die Größe ausgedrückt wird. Dies wird normalerweise in Bit, manchmal aber auch in Dezimalstellen gemessen. Es bezieht sich auf die Genauigkeit in der Mathematik , die die Anzahl der Ziffern beschreibt, die zum Ausdrücken eines Werts verwendet werden.

Einige der standardisierten Präzisionsformate sind

Von diesen wird das Oktupel-Präzisionsformat selten verwendet. Die Formate mit einfacher und doppelter Genauigkeit werden am häufigsten verwendet und auf fast allen Plattformen unterstützt. Die Verwendung des Formats mit halber Genauigkeit hat insbesondere im Bereich des maschinellen Lernens zugenommen, da viele Algorithmen für maschinelles Lernen von Natur aus fehlertolerant sind.

Rundungsfehler

Präzision ist häufig die Ursache für Rundungsfehler bei der Berechnung . Die Anzahl der zum Speichern einer Zahl verwendeten Bits führt häufig zu einem gewissen Genauigkeitsverlust. Ein Beispiel wäre das Speichern von "sin (0.1)" im IEEE-Gleitkomma-Standard mit einfacher Genauigkeit. Der Fehler wird dann häufig vergrößert, wenn nachfolgende Berechnungen unter Verwendung der Daten durchgeführt werden (obwohl er auch reduziert werden kann).

Siehe auch

Verweise