GeForce- GeForce

GeForce
GeForce newlogo.png
RTX 3090 Gründer-Edition!.jpg
GeForce RTX 3090 Founders Edition
Hersteller Nvidia
Eingeführt 1. September 1999 ;
Vor 22 Jahren
 ( 1999-09-01 )
Typ Consumer -Grafikkarten

GeForce ist eine Marke von Grafikprozessoren (GPUs), die von Nvidia entwickelt wurden . Ab der GeForce 30-Serie gab es siebzehn Iterationen des Designs. Die ersten GeForce-Produkte waren separate GPUs für Add-On-Grafikkarten, die für den hochmargigen PC-Gaming-Markt bestimmt waren, und die spätere Diversifizierung der Produktlinie deckte alle Ebenen des PC-Grafikmarktes ab, von kostensensiblen GPUs, die auf Motherboards integriert sind , zu Mainstream-Add-In-Einzelhandelsboards. Vor kurzem wurde die GeForce-Technologie in Nvidias Reihe eingebetteter Anwendungsprozessoren eingeführt, die für elektronische Handhelds und mobile Handsets entwickelt wurden.

Im Hinblick auf diskreten GPUs gefunden, in Add-In - Grafiken-boards, Nvidias GeForce und AMD ‚s Radeon - GPUs ist der einzige verbleibenden Wettbewerber in dem High-End - Markt. GeForce-GPUs sind dank ihrer proprietären CUDA- Architektur auf dem Markt für allgemeine Grafikprozessoren (GPGPU) sehr dominant . Es wird erwartet, dass GPGPU die GPU-Funktionalität über die traditionelle Rasterung von 3D-Grafiken hinaus erweitert, um sie in ein Hochleistungs-Computergerät zu verwandeln, das in der Lage ist, beliebigen Programmiercode auf die gleiche Weise wie eine CPU auszuführen, jedoch mit unterschiedlichen Stärken (hochgradig parallele Ausführung einfacher Berechnungen). ) und Schwächen (schlechtere Leistung für komplexen Verzweigungscode ).

Namensherkunft

Der Name "GeForce" stammt aus einem Wettbewerb von Nvidia Anfang 1999 namens "Name That Chip". Das Unternehmen rief die Öffentlichkeit dazu auf, den Nachfolger der RIVA TNT2- Grafikkartenlinie zu benennen . Es gingen über 12.000 Einsendungen ein und 7 Gewinner erhielten als Belohnung eine RIVA TNT2 Ultra Grafikkarte. Brian Burke, Senior PR Manager bei Nvidia, sagte Maximum PC im Jahr 2002, dass "GeForce" ursprünglich für "Geometry Force" stand, da GeForce 256 die erste GPU für PCs war, die die Transformations- und Beleuchtungsgeometrie berechnete und diese Funktion von der CPU .

Grafikprozessorgenerationen

Zeitleiste der Generationen
1999 GeForce 256
2000 GeForce 2-Serie
2001 GeForce 3-Serie
2002 GeForce 4-Serie
2003 GeForce FX-Serie
2004 GeForce 6-Serie
2005 GeForce 7-Serie
2006 GeForce 8-Serie
2007
2008 GeForce 9-Serie
GeForce 200-Serie
2009 GeForce 100-Serie
GeForce 300-Serie
2010 GeForce 400-Serie
GeForce 500-Serie
2011
2012 GeForce 600-Serie
2013 GeForce 700-Serie
2014 GeForce 800M-Serie
GeForce 900-Serie
2015
2016 GeForce 10-Serie
2017
2018 GeForce 20-Serie
2019 GeForce 16-Serie
2020 GeForce 30-Serie

GeForce 256

Die GeForce 256 (NV10) wurde am 1. September 1999 auf den Markt gebracht und war der erste PC-Grafikchip für Verbraucher, der mit Hardware-Transformation, Beleuchtung und Schattierung ausgeliefert wurde, obwohl 3D-Spiele mit dieser Funktion erst später erschienen. Anfängliche GeForce 256-Boards wurden mit SDR- SDRAM- Speicher geliefert und spätere Boards mit schnellerem DDR-SDRAM- Speicher.

GeForce 2-Serie

Die im April 2000 auf den Markt gebrachte erste GeForce2 (NV15) war ein weiterer Hochleistungs-Grafikchip. Nvidia wechselte zu einem Design mit zwei Texturen pro Pipeline (4x2) und verdoppelte die Texturfüllrate pro Takt im Vergleich zu GeForce 256. Später veröffentlichte Nvidia die GeForce2 MX (NV11), die eine ähnliche Leistung wie die GeForce 256 bot, aber zu einem Bruchteil der Kosten . Der MX war ein überzeugender Wert in den unteren und mittleren Marktsegmenten und war bei OEM-PC-Herstellern und -Anwendern gleichermaßen beliebt. Die GeForce 2 Ultra war das High-End-Modell dieser Reihe.

GeForce 3-Serie

GeForce3 (NV20) wurde im Februar 2001 auf den Markt gebracht und führte programmierbare Vertex- und Pixel-Shader in die GeForce-Familie und in Consumer-Level-Grafikbeschleuniger ein. Es hatte eine gute Gesamtleistung und Shader-Unterstützung, was es bei Enthusiasten beliebt machte, obwohl es nie den mittleren Preis erreichte. Das für die Microsoft Xbox -Spielekonsole entwickelte NV2A ist ein Derivat der GeForce 3.

GeForce 4-Serie

Die im Februar 2002 auf den Markt gebrachte High-End-GeForce4 Ti (NV25) war größtenteils eine Weiterentwicklung der GeForce3. Zu den größten Fortschritten gehörten Verbesserungen der Anti-Aliasing-Fähigkeiten, ein verbesserter Speichercontroller, ein zweiter Vertex-Shader und eine Reduzierung der Größe des Herstellungsprozesses, um die Taktgeschwindigkeit zu erhöhen. Ein weiteres Mitglied der GeForce 4-Familie, die preisgünstige GeForce4 MX, basierte auf der GeForce2, mit einigen Funktionen der GeForce4 Ti. Es zielte auf das Value-Segment des Marktes ab und es fehlten Pixel-Shader. Die meisten dieser Modelle verwendeten die AGP 4×-Schnittstelle, aber einige begannen mit der Umstellung auf AGP 8×.

GeForce FX-Serie

Die 2003 auf den Markt gebrachte GeForce FX (NV30) war eine große Veränderung in der Architektur im Vergleich zu ihren Vorgängern. Die GPU wurde nicht nur so konzipiert, dass sie die neue Shader Model 2-Spezifikation unterstützt, sondern auch bei älteren Titeln eine gute Leistung erbringt. Erste Modelle wie die GeForce FX 5800 Ultra litten jedoch unter einer schwachen Gleitkomma- Shader-Leistung und übermäßiger Hitze, die berüchtigt laute Kühllösungen mit zwei Steckplätzen erforderten. Produkte dieser Serie tragen die Modellnummer 5000, da es sich um die fünfte Generation der GeForce handelt, obwohl Nvidia die Karten als GeForce FX anstelle von GeForce 5 vermarktet, um "die Anfänge des Cinematic-Rendering" zu zeigen.

GeForce 6-Serie

Die im April 2004 auf den Markt gebrachte GeForce 6 (NV40) fügte der GeForce-Familie Shader Model 3.0-Unterstützung hinzu und korrigierte gleichzeitig die schwache Gleitkomma-Shader-Leistung ihres Vorgängers. Es implementierte auch High-Dynamic-Range-Imaging und führte SLI (Scalable Link Interface) und PureVideo- Fähigkeit (integrierte partielle Hardware MPEG-2, VC-1, Windows Media Video und H.264-Dekodierung und vollständig beschleunigte Video-Nachbearbeitung) ein.

GeForce 7-Serie

Die siebte GeForce-Generation (G70/NV47) wurde im Juni 2005 auf den Markt gebracht und war die letzte Nvidia-Grafikkartenserie, die den AGP- Bus unterstützen konnte. Das Design war eine verfeinerte Version von GeForce 6, wobei die wichtigsten Verbesserungen eine erweiterte Pipeline und eine Erhöhung der Taktrate waren. Die GeForce 7 bietet außerdem neue Anti-Aliasing-Modi für Transparenz- Supersampling und Transparenz-Multisampling (TSAA und TMAA). Diese neuen Anti-Aliasing-Modi wurden später auch für die GeForce 6-Serie aktiviert. Die GeForce 7950GT verfügt über die leistungsstärkste GPU mit AGP-Schnittstelle der Nvidia-Reihe. Diese Ära begann mit dem Übergang zur PCI-Express-Schnittstelle.

Als Haupt-GPU in der Sony PlayStation 3 wird eine 128-Bit-8-ROP-Variante des 7950 GT verwendet, die als RSX 'Reality Synthesizer' bezeichnet wird .

GeForce 8-Serie

Die am 8. November 2006 veröffentlichte GeForce der achten Generation (ursprünglich G80 genannt) war die erste GPU, die Direct3D  10 vollständig unterstützte . Hergestellt in einem 90-nm-Prozess und basierend auf der neuen Tesla-Mikroarchitektur , implementierte sie das Unified-Shader-Modell . Anfangs wurde nur das 8800GTX-Modell auf den Markt gebracht, während die GTS-Variante nach Monaten der Produktlinie veröffentlicht wurde und es fast sechs Monate dauerte, bis Midrange- und OEM-/Mainstream-Karten in die 8er-Serie integriert waren. Die Schrumpfung auf 65 nm und eine Überarbeitung des G80-Designs mit dem Codenamen G92 wurden in der 8-Serie mit dem 8800GS, 8800GT und 8800GTS-512 implementiert, die erstmals am 29. Oktober 2007 veröffentlicht wurden, fast ein ganzes Jahr nach dem ersten G80 Veröffentlichung.

GeForce 9- und 100-Serie

Das erste Produkt wurde am 21. Februar 2008 veröffentlicht. Nicht einmal vier Monate älter als das ursprüngliche G92-Release sind alle Designs der 9er-Serie lediglich Überarbeitungen bestehender Produkte der späten 8er-Serie. Das 9800GX2 verwendet zwei G92-GPUs, wie sie in späteren 8800-Karten verwendet werden, in einer Dual-PCB-Konfiguration und benötigt dennoch nur einen einzigen PCI-Express 16x-Steckplatz. Das 9800GX2 verwendet zwei separate 256-Bit-Speicherbusse, einen für jede GPU und ihre jeweiligen 512 MB Speicher, was insgesamt 1 GB Speicher auf der Karte entspricht (obwohl die SLI-Konfiguration der Chips eine Spiegelung des Frame-Puffers zwischen die beiden Chips, wodurch die Speicherleistung einer 256-Bit/512-MB-Konfiguration effektiv halbiert wird). Der spätere 9800GTX verfügt über eine einzelne G92-GPU, einen 256-Bit-Datenbus und 512 MB GDDR3-Speicher.

Vor der Veröffentlichung waren keine konkreten Informationen bekannt, außer dass die Beamten behaupteten, die Produkte der nächsten Generation hätten eine Rechenleistung von fast 1 TFLOPS, wobei die GPU-Kerne immer noch im 65-nm-Prozess hergestellt werden, und Berichten über Nvidia, die die Bedeutung von Direct3D  10.1 herunterspielen . Im März 2009 berichteten mehrere Quellen, dass Nvidia im Stillen eine neue Serie von GeForce-Produkten auf den Markt gebracht hatte, nämlich die GeForce 100-Serie, die aus umbenannten Teilen der 9er-Serie besteht. Produkte der GeForce 100-Serie waren nicht einzeln erhältlich.

GeForce 200- und 300-Serie

Basierend auf dem aus 1,4 Milliarden Transistoren bestehenden GT200-Grafikprozessor mit dem Codenamen Tesla wurde am 16. Juni 2008 die 200er-Serie auf den Markt gebracht. wie 8800 für Karten der 8er-Serie) mit dem GTX- oder GTS-Suffix (das früher am Ende der Kartennamen stand und ihren "Rang" unter anderen ähnlichen Modellen bezeichnete) und dann Modellnummern wie 260 und 280 danach hinzufügten das. Die Serie verfügt über den neuen GT200-Kern auf einem 65-nm- Die. Die ersten Produkte waren die GeForce GTX 260 und die teurere GeForce GTX 280. Die GeForce 310 wurde am 27. November 2009 veröffentlicht, die ein Rebranding von GeForce 210 ist. Die Karten der 300er Serie sind umbenannt DirectX 10.1 kompatible GPUs der 200er Serie. die nicht einzeln käuflich zu erwerben waren.

GeForce 400-Serie und 500-Serie

Am 7. April 2010 veröffentlichte Nvidia mit der GeForce GTX 470 und GTX 480 die ersten Karten auf Basis der neuen Fermi-Architektur mit dem Codenamen GF100; sie waren die ersten Nvidia-GPUs, die 1 GB oder mehr GDDR5- Speicher nutzten . Die GTX 470 und GTX 480 wurden wegen des hohen Stromverbrauchs, der hohen Temperaturen und der sehr lauten Geräuschkulisse, die durch die gebotene Leistung nicht ausgeglichen wurden, heftig kritisiert, obwohl die GTX 480 zum Zeitpunkt ihrer Einführung die schnellste DirectX-11-Karte war.

Im November 2010 veröffentlichte Nvidia eine neue Flaggschiff-GPU, die auf einer verbesserten GF100-Architektur (GF110) namens GTX 580 basiert. Sie zeichnete sich durch höhere Leistung, weniger Stromverbrauch, Hitze und Lärm als die vorherige GTX 480 aus GTX 480. Nvidia veröffentlichte später auch die GTX 590, die zwei GF110-GPUs auf einer einzigen Karte packt.

GeForce 600-Serie, 700-Serie und 800M-Serie

Asus Nvidia GeForce GTX 650 Ti, eine PCI-Express-3.0-×16-Grafikkarte

Im September 2010 gab Nvidia bekannt, dass der Nachfolger der Fermi-Mikroarchitektur die Kepler-Mikroarchitektur sein wird , die mit dem TSMC 28-nm-Fertigungsprozess hergestellt wird. Zuvor hatte Nvidia zusammengezogen worden , um ihren Top-End - GK110 Kern zur Verwendung in zuzuführen Oak Ridge National Laboratory ‚s ‚Titan‘Supercomputern , zu einem Mangel an GK110 Kernen führen. Nachdem AMD Anfang 2012 seine eigene jährliche Aktualisierung, die Radeon HD 7000-Serie, auf den Markt gebracht hatte, begann Nvidia im März 2012 mit der Veröffentlichung der GeForce 600-Serie. Der GK104-Kern, der ursprünglich für das Mittelklassesegment ihrer Produktpalette gedacht war, wurde zum Flaggschiff der GTX 680. Es führte im Vergleich zur Fermi-Architektur zu erheblichen Verbesserungen in Bezug auf Leistung, Wärme- und Energieeffizienz und war eng mit AMDs Flaggschiff Radeon HD 7970 vergleichbar. Es folgten schnell die Dual-GK104 GTX 690 und die GTX 670, die nur einen leichten Schnitt aufwiesen -down GK104-Kern und war in der Leistung sehr nah an der GTX 680.

Mit der GTX Titan hat Nvidia auch GPU Boost 2.0 veröffentlicht, der es ermöglichen würde, die GPU-Taktrate unbegrenzt zu erhöhen, bis eine vom Benutzer eingestellte Temperaturgrenze erreicht wurde, ohne eine vom Benutzer festgelegte maximale Lüftergeschwindigkeit zu überschreiten. Die letzte Veröffentlichung der GeForce 600-Serie war die GTX 650 Ti BOOST basierend auf dem GK106-Kern als Reaktion auf AMDs Radeon HD 7790-Release. Ende Mai 2013 kündigte Nvidia die 700er-Serie an, die noch auf der Kepler-Architektur basierte, jedoch mit einer GK110-basierten Karte an der Spitze der Produktpalette stand. Die GTX 780 war ein etwas abgespeckter Titan, der für zwei Drittel des Preises fast die gleiche Leistung erzielte. Es verfügte über das gleiche fortschrittliche Referenzkühlerdesign, hatte jedoch nicht die entsperrten Double-Precision-Kerne und war mit 3 GB Speicher ausgestattet.

Gleichzeitig kündigte Nvidia ShadowPlay an , eine Bildschirmaufnahmelösung, die einen in die Kepler-Architektur integrierten integrierten H.264-Encoder verwendet, den Nvidia zuvor nicht vorgestellt hatte. Es konnte verwendet werden, um Gameplay ohne Capture-Karte und mit vernachlässigbarem Leistungsabfall im Vergleich zu Software-Recording-Lösungen aufzuzeichnen, und war sogar auf den Karten der vorherigen Generation der GeForce 600-Serie verfügbar. Die Software-Beta für ShadowPlay hatte jedoch mehrere Verzögerungen und wurde erst Ende Oktober 2013 veröffentlicht. Eine Woche nach der Veröffentlichung der GTX 780 kündigte Nvidia die GTX 770 als Rebranding der GTX 680 an. Es folgte kurz darauf von der GTX 760, die ebenfalls auf dem GK104-Kern basierte und der GTX 660 Ti ähnlich war. 2013 wurden keine Karten der 700er-Serie mehr auf den Markt gebracht, obwohl Nvidia G-Sync ankündigte, ein weiteres Feature der Kepler-Architektur, das Nvidia unerwähnt gelassen hatte und das es der GPU ermöglichte, die Bildwiederholfrequenz von G-Sync-kompatiblen Monitoren dynamisch zu steuern, was Veröffentlichung im Jahr 2014, um Reißen und Ruckeln zu bekämpfen. Im Oktober veröffentlichte AMD jedoch die R9 290X, die 100 US-Dollar weniger kostete als die GTX 780. Als Reaktion darauf senkte Nvidia den Preis der GTX 780 um 150 US-Dollar und veröffentlichte die GTX 780 Ti, die eine vollständige 2880-Core-GK110 enthielt Core sogar noch leistungsfähiger als die GTX Titan, zusammen mit Verbesserungen am Power Delivery System, die das Übertakten verbesserten und es geschafft haben, AMDs neue Version voraus zu ziehen.

Die GeForce 800M-Serie besteht aus umbenannten Teilen der 700M-Serie basierend auf der Kepler-Architektur und einigen unteren Teilen basierend auf der neueren Maxwell-Architektur.

GeForce 900-Serie

Im März 2013 gab Nvidia bekannt, dass der Nachfolger von Kepler die Maxwell-Mikroarchitektur sein wird . Es wurde im September 2014 veröffentlicht. Dies war die letzte GeForce-Serie, die die analoge Videoausgabe über DVI-I unterstützte.

GeForce 10-Serie

Im März 2014 gab Nvidia bekannt, dass der Nachfolger von Maxwell die Pascal-Mikroarchitektur sein wird ; angekündigt am 6. Mai 2016 und freigegeben am 27. Mai 2016. Zu den architektonischen Verbesserungen gehören die folgenden:

  • In Pascal besteht ein SM (Streaming Multiprozessor) aus 128 CUDA-Kernen. Kepler packte 192, Fermi 32 und Tesla nur 8 CUDA-Kerne in ein SM; das GP100 SM ist in zwei Verarbeitungsblöcke unterteilt, von denen jeder 32 CUDA-Kerne mit einfacher Genauigkeit, einen Befehlspuffer, einen Warp-Scheduler, 2 Textur-Mapping-Einheiten und 2 Dispatch-Einheiten hat.
  • GDDR5X  – Neuer Speicherstandard, der Datenraten von 10 Gbit/s und einen aktualisierten Speichercontroller unterstützt. Nur die Nvidia Titan X (und Titan Xp), GTX 1080, GTX 1080 Ti und GTX 1060 (6-GB-Version) unterstützen GDDR5X. Die GTX 1070 Ti, GTX 1070, GTX 1060 (3-GB-Version), GTX 1050 Ti und GTX 1050 verwenden GDDR5.
  • Unified Memory – Eine Speicherarchitektur, bei der CPU und GPU mit Hilfe einer Technologie namens "Page Migration Engine" sowohl auf den Hauptsystemspeicher als auch auf den Speicher der Grafikkarte zugreifen können.
  • NVLink  – Ein Bus mit hoher Bandbreite zwischen CPU und GPU und zwischen mehreren GPUs. Ermöglicht viel höhere Übertragungsgeschwindigkeiten als mit PCI Express erreichbar; Schätzungsweise zwischen 80 und 200 GB/s.
  • 16-Bit- Gleitkommaoperationen ( FP16 ) können mit der doppelten Rate von 32-Bit-Gleitkommaoperationen ("einfache Genauigkeit") und 64-Bit-Gleitkommaoperationen ("doppelte Genauigkeit") mit halber Geschwindigkeit ausgeführt werden von 32-Bit-Gleitkommaoperationen (Maxwell 1/32-Rate).

GeForce 20- und 16-Serie

Im August 2018 kündigte Nvidia den GeForce-Nachfolger von Pascal an. Der neue Name der Mikroarchitektur wurde auf der Konferenz Siggraph 2018 als „ Turing “ enthüllt . Diese neue GPU-Mikroarchitektur soll die Echtzeit- Raytracing- Unterstützung und die KI-Inferenz beschleunigen . Es verfügt über eine neue Raytracing-Einheit (RT Core), die Prozessoren für das Raytracing in der Hardware bereitstellen kann. Es unterstützt die DXR- Erweiterung in Microsoft DirectX 12. Nvidia behauptet, die neue Architektur sei bis zu 6-mal schneller als die ältere Pascal-Architektur. Ein völlig neues Tensor-Core-Design seit Volta die KI-Deep-Learning-Beschleunigung einführt, die die Verwendung von DLSS ( Deep Learning Super Sampling ) ermöglicht, einer neuen Form des Anti-Aliasing, die KI verwendet, um schärfere Bilder mit weniger Auswirkungen auf die Leistung zu liefern. Es ändert auch seine Integer-Ausführungseinheit, die parallel zum Gleitkomma-Datenpfad ausgeführt werden kann. Außerdem wurde eine neue Unified-Cache-Architektur angekündigt, die ihre Bandbreite im Vergleich zu früheren Generationen verdoppelt.

Die neuen GPUs wurden als Quadro RTX 8000, Quadro RTX 6000 und Quadro RTX 5000 vorgestellt. Die High-End-Quadro RTX 8000 verfügt über 4.608 CUDA-Kerne und 576 Tensor-Kerne mit 48 GB VRAM. Später während der Gamescom- Pressekonferenz stellte Nvidias CEO Jensen Huang die neue GeForce RTX-Serie mit RTX 2080 Ti, 2080 und 2070 vor, die die Turing-Architektur verwenden wird. Die ersten Turing-Karten sollten am 20. September 2018 an die Verbraucher ausgeliefert werden. Nvidia kündigte die RTX 2060 am 6. Januar 2019 auf der CES 2019 an.

Am 2. Juli 2019 kündigte Nvidia die GeForce RTX Super-Kartenreihe an, eine Aktualisierung der 20er Serie, die höherwertige Versionen der RTX 2060, 2070 und 2080 umfasst. Die RTX 2070 und 2080 wurden eingestellt.

Im Februar 2019 kündigte Nvidia die GeForce-16-Serie an . Es basiert auf der gleichen Turing-Architektur, die in der GeForce 20-Serie verwendet wird, jedoch ohne die für letztere einzigartigen Tensor- ( AI ) und RT- ( Raytracing ) Kerne, um eine erschwinglichere Grafiklösung für Gamer bereitzustellen und gleichzeitig eine höhere Leistung zu erzielen im Vergleich zu entsprechenden Karten der vorherigen GeForce-Generationen.

Wie beim RTX Super-Refresh kündigte Nvidia am 29. Oktober 2019 die GTX 1650 Super- und 1660 Super-Karten an, die ihre Nicht-Super-Pendants ersetzten.

GeForce 30-Serie

Nvidia gab auf dem GeForce Special Event offiziell bekannt, dass der Nachfolger der GeForce 20-Serie die 30er-Serie sein wird. Das eingeführte GeForce Special Event fand am 1. September 2020 statt und legte den 17. September als offiziellen Erscheinungstermin für die 3080 GPU, den 24. September als Erscheinungstermin für die 3090 GPU und Oktober für die 3070 GPU fest.

Varianten

Mobile GPUs

GeForce-Chip integriert auf einem Laptop-Motherboard.

Seit der GeForce 2-Serie hat Nvidia eine Reihe von Grafikchipsätzen für Notebooks unter dem GeForce Go- Branding produziert. Die meisten Funktionen, die in den Desktop-Gegenstücken vorhanden sind, sind in den mobilen vorhanden. Diese GPUs sind im Allgemeinen für einen geringeren Stromverbrauch und eine geringere Wärmeabgabe optimiert, um in Notebooks und kleinen Desktops verwendet zu werden.

Beginnend mit der GeForce 8-Serie wurde die Marke GeForce Go eingestellt und die mobilen GPUs wurden in die Hauptlinie der GeForce-GPUs integriert, aber ihr Name wurde mit einem M angehängt . Dies endete 2016 mit der Einführung der Laptop-GeForce 10-Serie – Nvidia ließ das M- Suffix fallen und entschied sich dafür, das Branding zwischen ihren Desktop- und Laptop-GPU-Angeboten zu vereinheitlichen, da Notebook-Pascal-GPUs fast so leistungsstark sind wie ihre Desktop-Pendants (etwas, mit dem Nvidia getestet wurde). ihre "Desktop-Klasse"-Notebook GTX 980 GPU aus dem Jahr 2015).

Die Marke GeForce MX , die zuvor von Nvidia für ihre Desktop-GPUs der Einstiegsklasse verwendet wurde, wurde 2017 mit der Veröffentlichung der GeForce MX150 für Notebooks wiederbelebt. Die MX150 basiert auf der gleichen Pascal GP108 GPU wie die Desktop GT 1030 und wurde leise im Juni 2017 veröffentlicht.

GPUs mit kleinem Formfaktor

Ähnlich wie bei den mobilen GPUs hat Nvidia auch einige GPUs im "Small-Form-Factor"-Format für den Einsatz in All-in-One-Desktops veröffentlicht. Diese GPUs werden mit einem S angehängt , ähnlich dem M, das für mobile Produkte verwendet wird.

Integrierte Desktop-Motherboard-GPUs

Beginnend mit nForce 4 begann Nvidia, Onboard-Grafiklösungen in ihre Motherboard-Chipsätze aufzunehmen. Diese Onboard-Grafiklösungen wurden mGPUs (Motherboard GPUs) genannt. Nvidia hat die nForce-Reihe, einschließlich dieser mGPUs, 2009 eingestellt.

Nachdem die nForce-Reihe eingestellt wurde, veröffentlichte Nvidia 2009 seine Ion- Linie, die aus einer Intel Atom- CPU in Kombination mit einer Low-End-GPU der GeForce 9-Serie bestand, die auf dem Motherboard befestigt war. Nvidia hat 2010 einen aktualisierten Ion 2 veröffentlicht, der diesmal eine Low-End-GPU der GeForce 300-Serie enthält.

Nomenklatur

Von der GeForce 4-Serie bis zur GeForce 9-Serie wird das folgende Namensschema verwendet.

Kategorie
der Grafikkarte
Anzahl
Bereich
Suffix Preisspanne
( USD )
Shader-
Betrag
Speicher Beispielprodukte
Typ Busbreite Größe
Einstiegslevel 000–550 SE, LE, kein Suffix, GS, GT, Ultra < 100 $ < 25% DDR , DDR2 25–50% ~25% GeForce 9400GT, GeForce 9500GT
Mittelklasse 600–750 VE, LE, XT, kein Suffix, GS, GSO, GT, GTS, Ultra $100–175 25–50% DDR2, DDR3 50–75 % 50–75 % GeForce 9600GT, GeForce 9600GSO
Hochwertig 800–950 VE, LE, ZT, XT, kein Suffix, GS, GSO, GT, GTO,
GTS, GTX, GTX+, Ultra, Ultra Extreme, GX2
> 175 $ 50–100% DDR3 75–100 % 50–100% GeForce 9800GT, GeForce 9800GTX

Seit der Veröffentlichung der GeForce 100-GPU-Serie hat Nvidia sein Produktnamensschema in das folgende geändert.

Kategorie
der Grafikkarte
Präfix Nummernkreis
(letzte 2 Stellen)
Preisspanne
( USD )
Shader-
Betrag
Speicher Beispielprodukte
Typ Busbreite Größe
Einstiegslevel kein Präfix, G, GT 00–45 < 100 $ < 25% DDR2, GDDR3, GDDR5 , DDR4 25–50% ~25% GeForce GT 430, GeForce GT 730, GeForce GT 1030
Mittelklasse GTS, GTX, RTX 50–65 $100–300 25–50% GDDR3, GDDR5(X), GDDR6 50–75 % 50–100% GeForce GTX 760, GeForce GTX 960, GeForce GTX 1060 (6GB)
Hochwertig GTX, RTX 70–95 > $300 50–100% GDDR5, GDDR5X, GDDR6, GDDR6X 75–100 % 75–100 % GeForce GTX 980 Ti, GeForce GTX 1080 Ti, GeForce RTX 2080 Ti

Treiber für Grafikgeräte

Proprietär

Nvidia entwickelt und veröffentlicht GeForce-Treiber für Windows 10 x86 / x86-64 und höher, Linux x86/x86-64/ ARMv7-A , OS X 10.5 und höher, Solaris x86/x86-64 und FreeBSD x86/x86-64. Eine aktuelle Version kann von Nvidia heruntergeladen werden und die meisten Linux-Distributionen enthalten sie in ihren eigenen Repositories. Der Nvidia GeForce-Treiber 340.24 vom 8. Juli 2014 unterstützt die EGL- Schnittstelle, die die Unterstützung von Wayland in Verbindung mit diesem Treiber ermöglicht. Bei der Marke Nvidia Quadro , die auf identischer Hardware basiert, aber über OpenGL-zertifizierte Grafiktreiber verfügt, kann dies anders sein .

Grundlegende Unterstützung für die DRM-Modus-Einstellungsschnittstelle in Form eines neuen Kernel-Moduls namens nvidia-modeset.koist seit Version 358.09 Beta verfügbar. Die Unterstützung des Display-Controllers von Nvidia auf den unterstützten GPUs ist in nvidia-modeset.ko. Herkömmliche Display-Interaktionen (X11-Modesets, OpenGL SwapBuffers, VDPAU-Präsentation, SLI, Stereo, Framelock, G-Sync usw.) werden von den verschiedenen Benutzermodus-Treiberkomponenten initiiert und fließen zu nvidia-modeset.ko.

Am selben Tag, an dem die Vulkan- Grafik-API veröffentlicht wurde, veröffentlichte Nvidia Treiber, die sie vollständig unterstützten.

Legacy-Treiber:

Normalerweise unterstützt ein Legacy-Treiber auch neuere GPUs, aber da neuere GPUs von neueren GeForce-Treibernummern unterstützt werden, die regelmäßig mehr Funktionen und besseren Support bieten, wird der Endbenutzer ermutigt, immer die höchstmögliche Treibernummer zu verwenden.

Aktueller Fahrer:

Kostenlos und Open Source

Als Alternative zu den von Nvidia veröffentlichten Treibern gibt es von der Community erstellte, kostenlose und Open-Source-Treiber. Open-Source-Treiber werden hauptsächlich für Linux entwickelt, es kann jedoch Portierungen auf andere Betriebssysteme geben. Der bekannteste alternative Treiber ist der rückentwickelte kostenlose und quelloffene Nouveau- Grafikgerätetreiber. Nvidia hat öffentlich angekündigt, solche zusätzlichen Gerätetreiber für ihre Produkte nicht zu unterstützen, obwohl Nvidia Code zum Nouveau-Treiber beigesteuert hat.

Kostenlose und Open-Source-Treiber unterstützen einen großen Teil (aber nicht alle) der Funktionen, die in Karten der Marke GeForce verfügbar sind. Beispielsweise fehlt dem Nouveau-Treiber seit Januar 2014 die Unterstützung für die Anpassung der GPU- und Speichertaktfrequenz sowie für das damit verbundene dynamische Energiemanagement. Außerdem schneiden die proprietären Treiber von Nvidia in verschiedenen Benchmarks durchweg besser ab als Nouveau. Ab August 2014 und Version 3.16 der Linux-Kernel-Mainline ermöglichten Beiträge von Nvidia jedoch die Implementierung einer teilweisen Unterstützung für GPU- und Speichertaktfrequenzanpassungen.

Lizenz- und Datenschutzprobleme

Die Lizenz hat gemeinsame Bedingungen gegen Reverse Engineering und Kopieren und schließt Gewährleistungen und Haftungen aus.

Ab 2016 besagt die GeFORCE-Lizenz, dass Nvidia "SOFTWARE auf das System des Kunden zugreifen, nicht personenbezogene Daten sammeln, aktualisieren und konfigurieren darf, um dieses System für die Verwendung mit der SOFTWARE ordnungsgemäß zu optimieren." In der Datenschutzerklärung heißt es weiter: „Wir können derzeit nicht auf „Do Not Track“-Signale reagieren, die von einem Browser gesetzt werden. Wir gestatten auch Drittanbietern von Online-Werbenetzwerken und Social-Media-Unternehmen, Informationen zu sammeln... Kombinieren Sie personenbezogene Daten, die wir über Sie sammeln, mit den Browsing- und Tracking-Informationen, die von diesen [Cookies und Beacons]-Technologien gesammelt werden."

Die Software konfiguriert das System des Benutzers, um seine Nutzung zu optimieren, und die Lizenz besagt: "NVIDIA übernimmt keine Verantwortung für Schäden oder Verluste an diesem System (einschließlich Daten- oder Zugriffsverlust), die sich aus oder im Zusammenhang mit (a) jeglichen Änderungen der Konfiguration, Anwendungseinstellungen, Umgebungsvariablen, Registrierung, Treiber, BIOS oder andere Attribute des Systems (oder eines Teils eines solchen Systems), die durch die SOFTWARE initiiert wurden".

GeForce-Erfahrung

Bis zum Update vom 26. März 2019 waren Benutzer von GeForce Experience anfällig für Codeausführung , Denial-of-Service und Eskalation von Berechtigungsangriffen .

Verweise

Externe Links