Präzision (Informatik) - Precision (computer science)
In der Informatik ist die Genauigkeit einer numerischen Größe ein Maß für das Detail, in dem die Größe ausgedrückt wird. Dies wird normalerweise in Bit, manchmal aber auch in Dezimalstellen gemessen. Es bezieht sich auf die Genauigkeit in der Mathematik , die die Anzahl der Ziffern beschreibt, die zum Ausdrücken eines Werts verwendet werden.
Einige der standardisierten Präzisionsformate sind
- Gleitkommaformat mit halber Genauigkeit
- Gleitkommaformat mit einfacher Genauigkeit
- Gleitkommaformat mit doppelter Genauigkeit
- Gleitkommaformat mit vierfacher Genauigkeit
- Gleitkommaformat mit Oktupelgenauigkeit
Von diesen wird das Oktupel-Präzisionsformat selten verwendet. Die Formate mit einfacher und doppelter Genauigkeit werden am häufigsten verwendet und auf fast allen Plattformen unterstützt. Die Verwendung des Formats mit halber Genauigkeit hat insbesondere im Bereich des maschinellen Lernens zugenommen, da viele Algorithmen für maschinelles Lernen von Natur aus fehlertolerant sind.
Rundungsfehler
Präzision ist häufig die Ursache für Rundungsfehler bei der Berechnung . Die Anzahl der zum Speichern einer Zahl verwendeten Bits führt häufig zu einem gewissen Genauigkeitsverlust. Ein Beispiel wäre das Speichern von "sin (0.1)" im IEEE-Gleitkomma-Standard mit einfacher Genauigkeit. Der Fehler wird dann häufig vergrößert, wenn nachfolgende Berechnungen unter Verwendung der Daten durchgeführt werden (obwohl er auch reduziert werden kann).
Siehe auch
- Arithmetik mit beliebiger Genauigkeit
- Erweiterte Präzision
- IEEE754 (IEEE-Gleitkomma-Standard)
- Ganzzahl (Informatik)
- Bedeutende Zahlen
- Kürzung
- Ungefähre Datenverarbeitung