Majormike
Originalplakat- 15. Mai 2012
- 31.01.2021
Wie viel RAM benötigt der M1 aus dem Speicherpool, um die GPU zu betreiben?
Ich möchte es für die Musikproduktion holen und wäre mit 16 Gigs zufrieden, aber ich bin mir nicht sicher, wie viel Speicher die GPU verbraucht, insbesondere bei einem externen Display?
warp9
- 8. Juni 2017
- 31.01.2021
Schauen Sie sich in den Einstellungen um und sehen Sie, ob Sie GPU-Einstellungen erkennen können. Photoshop kann beispielsweise GPUs stark nutzen, aber es kann auch deaktiviert werden.
Wizec
- 30.06.2019
- 31.01.2021
Wie viel Videospeicher (VRAM) benötigen Sie für Gaming im Jahr 2021?
Finden Sie heraus, wie viel Videospeicher (VRAM) Sie in einer Grafikkarte für Spiele mit unterschiedlichen Auflösungen und Grafikeinstellungen für die neuesten AAA-Spiele von heute benötigen. Videospeicher oder VRAM ist ein Hochgeschwindigkeits-DRAM (Dynamic RAM), das in diskreten Grafikkarten oder Videokarten verwendet wird. Das ist ein Pufferspeicher, nur... Grafikkartenhub.comWenn Sie nicht spielen, dann wahrscheinlich nur einige hundert MB, abhängig von der Auflösung und Farbtiefe Ihres Monitors. Sobald Sie 4K und Millionen von Farben erreicht haben, kann es jedoch viel höher werden, sogar für Aufgaben wie das Surfen im Internet:
Das einzige potenzielle Problem, das wir gefunden haben, war während der 4k-Webbrowser-Tests, bei denen unsere Protokollierung zeigte, dass die Grafikkarten bis zu 1.260 MB Videospeicher verbrauchen. Um dies ins rechte Licht zu rücken, ist dies ungefähr dreimal so viel Videospeicher, der verwendet worden wäre, wenn wir die gleichen Aufgaben auf einem 1080p-Monitor ausgeführt hätten.
Anforderungen und Verwendung von 4K-Monitoren
4k-Displays haben ungefähr die vierfache Anzahl von Pixeln als ein Standard-1080p-Display, was zu einer enormen Verbesserung der Bildqualität führt. Da die Technologie aber noch relativ neu ist, gibt es viele Fragen und Missverständnisse darüber, was man braucht, um einen 4k-Monitor zu betreiben. Um zu... www.pugetsystems.com Zuletzt bearbeitet: 31.01.2021leman
- 14. Oktober 2008
- 1. Februar 2021
Majormike sagte: Hallo,
Wie viel RAM benötigt der M1 aus dem Speicherpool, um die GPU zu betreiben?
Ich möchte es für die Musikproduktion holen und wäre mit 16 Gigs zufrieden, aber ich bin mir nicht sicher, wie viel Speicher die GPU verbraucht, insbesondere bei einem externen Display?
Ich würde mir darüber keine Sorgen machen. Alle Systeme reservieren etwas Speicher für grundlegende Funktionen, M1 unterscheidet sich in dieser Hinsicht nicht allzu sehr von Intel-Maschinen. Die GPU kann Ihren Arbeitsspeicher nicht kannibalisieren. Ganz zu schweigen davon, dass Ihre Musikproduktionssoftware wahrscheinlich die GPU für die Verarbeitung verwendet. m
Modernape
- 21. Juni 2010
- 1. Februar 2021
leman
- 14. Oktober 2008
- 1. Februar 2021
Modernape sagte: Die M1-GPU hat keinen zugewiesenen RAM wie die Intel-Maschinen, wo die GPU vielleicht 1,5 GB beiseite gelegt hätte, die die CPU daher nicht nutzen könnte. Wenn Sie die GPU nicht so stark auslasten, steht Ihnen der größte Teil des Arbeitsspeichers für die CPU zur Verfügung.
Woher weißt du das? m
Modernape
- 21. Juni 2010
- 1. Februar 2021
leman sagte: Woher wissen Sie das?m1 soc vereinheitlichte speicherarchitektur - Google-Suche
leman
- 14. Oktober 2008
- 1. Februar 2021
Modernape sagte: m1 soc vereinheitlichte speicherarchitektur - Google-Suche
Wie soll das Ihre Behauptung stützen? Was ich frage ist - haben Sie irgendwelche Tatsachenbeweise oder einen Verweis auf eine Quelle, die solche Tatsachenbeweise dafür liefert, dass die GPU-Speicherzuweisung bei Intel- und Apple-GPUs unterschiedlich funktioniert? Beide verwenden eine einheitliche Speicherarchitektur mit Last-Level-Cache, die zwischen CPU und GPU geteilt wird. M1 reserviert definitiv etwas Speicher für die GPU-Nutzung, obwohl ich mir nicht sicher bin, wie viel. m
Modernape
- 21. Juni 2010
- 1. Februar 2021
leman sagte: Wie soll das Ihre Behauptung stützen? Was ich frage ist - haben Sie irgendwelche Tatsachenbeweise oder einen Verweis auf eine Quelle, die solche Tatsachenbeweise dafür liefert, dass die GPU-Speicherzuweisung bei Intel- und Apple-GPUs unterschiedlich funktioniert? Beide verwenden eine einheitliche Speicherarchitektur mit Last-Level-Cache, die zwischen CPU und GPU geteilt wird. M1 reserviert definitiv etwas Speicher für die GPU-Nutzung, obwohl ich mir nicht sicher bin, wie viel.Wow, Sie müssen diese Artikel schnell durchgelesen haben. Oh, Moment mal. Du hast sie nicht gelesen, oder?
leman
- 14. Oktober 2008
- 1. Februar 2021
Modernape sagte: Wow, Sie müssen diese Artikel schnell durchgelesen haben. Oh, Moment mal. Du hast sie nicht gelesen, oder?
Ich bin mir ziemlich sicher, dass ich die relevantesten davon gelesen habe. Ich habe auch technische Analysen und Low-Level-Benchmarking der M1-GPU durchgeführt, seit ich mein Gerät im Dezember erhalten habe. Das ist auch der Grund, warum ich frage, vielleicht gibt es da draußen ein paar neue technische Informationen, die mir noch nicht bekannt sind. C
chabig
- 06.09.2002
- 1. Februar 2021
Hier ist eine Apple-Referenz:
Entdecken Sie die neue Systemarchitektur von Apple Silicon Macs - WWDC20 - Videos - Apple Developer
Entdecken Sie, wie Macs mit Apple-Silizium moderne Vorteile mit der System-on-Chip (SoC)-Architektur von Apple bieten. Nutzen Sie eine einheitliche... entwickler.apple.comZitieren,
Wenn alles in einem Chip integriert ist, erhält das System eine vereinheitlichte Speicherarchitektur.
Das bedeutet, dass GPU und CPU über den gleichen Speicher arbeiten. Grafikressourcen wie Texturen, Bilder und Geometriedaten können effizient und ohne Overhead zwischen CPU und GPU geteilt werden, da keine Daten über einen PCIe-Bus kopiert werden müssen.
Krevnik
- 8. September 2003
- 1. Februar 2021
Leman sagte: Ich bin mir ziemlich sicher, dass ich die relevantesten davon gelesen habe. Ich habe auch technische Analysen und Low-Level-Benchmarking der M1-GPU durchgeführt, seit ich mein Gerät im Dezember erhalten habe. Das ist auch der Grund, warum ich frage, vielleicht gibt es da draußen ein paar neue technische Informationen, die mir noch nicht bekannt sind.
Intel Desktop- und Laptop-Chips verwenden kein UMA, sondern Shared Memory. Bei Intel muss der GPU ein partitionierter RAM-Block zugewiesen werden, der verwendet werden soll. Die CPU kann nicht auf die der GPU zugewiesene Partition zugreifen und umgekehrt. Sie müssen also noch Daten zwischen den Partitionen kopieren.
Der ganze Unterschied zwischen Unified Memory und Shared Memory besteht in der fehlenden Partitionierung. GPU und CPU können auf denselben Speicherblock zugreifen. Im Vergleich zu Intel bietet es zwei spezifische Vorteile:
1. Ohne RAM für die Verwendung als Videospeicher vorab zuweisen zu müssen, müssen Sie sich nicht mit bestimmten Grenzen des Videospeichers (die zuvor erwähnten 1,5 GB) befassen und können leichter zwischen CPU- und GPU-Bedarf ausgleichen.
2. Der Verzicht auf das Kopieren von Puffern bedeutet messbare RAM-Einsparungen, weniger Druck auf die Speicherbandbreite und eine gewisse Erhöhung der Latenz.
Diese Vorteile sind ein Grund, warum Spielekonsolen UMA verwenden. Die Speicher- und Latenzeinsparungen tragen dazu bei, die Kosten für das benötigte GDDR gering zu halten.
leman
- 14. Oktober 2008
- 1. Februar 2021
Krevnik sagte: Intel Desktop- und Laptop-Chips verwenden kein UMA, sie verwenden Shared Memory. Bei Intel muss der GPU ein partitionierter RAM-Block zugewiesen werden, der verwendet werden soll. Die CPU kann nicht auf die der GPU zugewiesene Partition zugreifen und umgekehrt. Sie müssen also noch Daten zwischen den Partitionen kopieren.
Die Intel-Dokumentation stimmt Ihnen nicht zu.
https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Soweit ich nachfülle, verwendet Intel Unified Memory seit mindestens Sandy Bridge, vielleicht früher. Es kann einige Einschränkungen geben, nicht 100% sicher. Zuletzt bearbeitet: 1. Februar 2021
das Gepäck
- 29.07.2011
- 1. Februar 2021
majormike sagte: Ich möchte es für die Musikproduktion haben und wäre mit 16 Gigs zufrieden, aber ich bin mir nicht sicher, wie viel Speicher die GPU verbraucht, insbesondere mit einem externen Display?Es sei denn, jemand meldet sich mit Speicherdruckmesswerten von einem 16-GB-M1-Computer, auf dem etwas in der Nähe Ihrer beabsichtigten Arbeitslast ausgeführt wird - jeder kann es sich vorstellen. 'Musikproduktion' ist ein Stück Fäden für den Anfang (die RAM-Nutzung hängt ganz davon ab, welche Art von virtuellen Instrumenten und Plug-Ins Sie verwenden). Einige Musik-Apps haben ziemlich ausgeklügelte Benutzeroberflächen, und das Ausführen einiger hochauflösender Displays erfordert mehr RAM, das dem Video zugewiesen wird – insbesondere wenn Sie skalierte Modi verwenden, bei denen alles in einen internen Puffer gerendert und dann heruntergerechnet wird.
Die Chancen stehen gut, dass ein M1 nicht nur Ihre Arbeit erledigt, sondern auch schneller, weil sie rundum effizienter ist und was Sie auf den Kreisverkehren verlieren, gewinnen Sie auf den Schaukeln - und es gab viele Youtube-Demos, die zeigen, dass sie funktioniert jede Menge Logic Pro-Tracks und -Instrumente.
Die sichere Annahme ist jedoch, dass, wenn Ihr Workflow tatsächlich mehr als 16 GB auf Intel benötigt, dies zumindest der Fall ist Nutzen von mehr als 16 GB auf Apple Silicon und warten Sie am besten, bis die höherwertigen Apple Silicon-Systeme auf den Markt kommen. Auch wenn ein M1 das kann zur Zeit einen High-End Intel iMac oder 16' MBP übertreffen, in sechs Monaten wird ihm Sand ins Gesicht getreten - diese seltsame Pause, in der die Einstiegs-Macs anscheinend die teureren übertreffen, wird nicht lange dauern lang - Apple kann es sich nicht leisten, dass es weitergeht oder es wird High-End-Mac-Verkäufe treffen.
Das heißt, Sie müssen sicher sein, dass Sie wirklich tun Sie benötigen in erster Linie den gesamten Arbeitsspeicher Ihres Intel Mac (siehe Speicherdruck).
Was den Video-RAM angeht, ist das M1 mit ziemlicher Sicherheit besser als ein MacBook oder Mini mit integrierter Intel-Grafik. vs. ein iMac, der nur eine separate GPU mit 8 GB+ VRAM hat, ist es schwerer zu sagen.
(Außerdem müssen Sie sorgfältig prüfen, ob alle Plug-Ins, Treiber usw., die Sie benötigen, noch mit Big Sur kompatibel sind, geschweige denn mit der M1 ...)
Modernape sagte: Wow, Sie müssen diese Artikel schnell durchgelesen haben. Oh, Moment mal. Du hast sie nicht gelesen, oder?
Jemandem zu sagen, dass er effektiv 'Google gehen' soll, ist nicht besonders hilfreich, wenn das Internet mit gefälschten Informationen und unbegründeten Spekulationen schwimmt. Alles was ich gesehen habe von Apple war extrem vage, mehr Marketing- als technische Informationen und wurde auf 'Unified Memory ist schneller, weil Daten nicht zwischen Geräten kopiert werden müssen' reduziert, was nichts darüber aussagt, wie RAM zugewiesen wird. Alles, was Sie mit einer Google-Suche erhalten, sind viele Tech-Sites, die auf dieselben begrenzten Apple-Daten spekulieren. Die Möglichkeit, dass der entsprechende VRAM 'auf Abruf' zugewiesen wird, ist eine sehr plausible Spekulation - aber es sei denn, jemand kann darauf hinweisen Apple-Dokument das beschreibt das, es ist Spekulation.
Die Realität scheint das Unified Memory zu sein ist effizienter - aber wie effizienter ist schwer zu testen und schwer von den anderen Leistungssteigerungen des M1 zu isolieren (...was viel weniger beeindruckend aussehen könnte, wenn höherwertige Apple Silicon Macs erscheinen).
Viele YouTube-Sachen scheinen von Leuten zu kommen, die den Unterschied zwischen 'Memory Used' und 'Memory Pressure' oder 'Swap Used' und Swap nicht verstehen Bewertung - oder nach einer RAM-bezogenen Beschleunigung für Workflows suchen, die den RAM eines Intel-Systems nicht belasten ...
mi7chy
- 24.10.2014
- 1. Februar 2021
Krevnik sagte: Der ganze Unterschied zwischen Unified Memory und Shared Memory besteht in der fehlenden Partitionierung. GPU und CPU können auf denselben Speicherblock zugreifen. Im Vergleich zu Intel bietet es zwei spezifische Vorteile:
1. Ohne RAM für die Verwendung als Videospeicher vorab zuweisen zu müssen, müssen Sie sich nicht mit bestimmten Grenzen des Videospeichers (die zuvor erwähnten 1,5 GB) befassen und können leichter zwischen CPU- und GPU-Bedarf ausgleichen.
2. Der Verzicht auf das Kopieren von Puffern bedeutet messbare RAM-Einsparungen, weniger Druck auf die Speicherbandbreite und eine gewisse Erhöhung der Latenz.
Intel sagt etwas anderes mit dynamischer Zuweisung und Zero Copy Buffer. Meine BS-Ignorierliste wird immer größer.
https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html
https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Zuletzt bearbeitet: 1. Februar 2021
thedocbwarren
- 10.11.2017
- San Francisco, Kalifornien
- 1. Februar 2021
Dies erklärt die bei Mobilgeräten, Konsolen und Low-Power-GPUs übliche Rendermethode. Aus diesem Grund benötigen Sie weniger Speicher als dGPUs. Kachel-Rendering war eine Möglichkeit, 3D in kleineren Kacheln zu verarbeiten und Änderungen zu scannen usw. Es wird seit Jahren sowohl auf Konsolen als auch auf neueren Tablets (iPad) durchgeführt.
Aus diesem Grund ist es nicht klar, wie viel Speicher Sie für Texturen und Rednering verwenden. Es unterscheidet sich von der Funktionsweise von dGPUs mit Framebuffern.
theluggage sagte: Es sei denn, jemand meldet sich mit Speicherdruckwerten von einem 16-GB-M1-Rechner, auf dem etwas in der Nähe Ihrer beabsichtigten Arbeitslast ausgeführt wird - jeder kann es vermuten. 'Musikproduktion' ist ein Stück Fäden für den Anfang (die RAM-Nutzung hängt ganz davon ab, welche Art von virtuellen Instrumenten und Plug-Ins Sie verwenden). Einige Musik-Apps haben ziemlich ausgeklügelte Benutzeroberflächen, und das Ausführen einiger hochauflösender Displays erfordert mehr RAM, das dem Video zugewiesen wird – insbesondere wenn Sie skalierte Modi verwenden, bei denen alles in einen internen Puffer gerendert und dann heruntergerechnet wird.
Die Chancen stehen gut, dass ein M1 nicht nur Ihre Arbeit erledigt, sondern auch schneller, weil sie rundum effizienter ist und was Sie auf den Kreisverkehren verlieren, gewinnen Sie auf den Schaukeln - und es gab viele Youtube-Demos, die zeigen, dass sie funktioniert jede Menge Logic Pro-Tracks und -Instrumente.
Die sichere Annahme ist jedoch, dass, wenn Ihr Workflow tatsächlich mehr als 16 GB auf Intel benötigt, dies zumindest der Fall ist Nutzen von mehr als 16 GB auf Apple Silicon und warten Sie am besten, bis die höherwertigen Apple Silicon-Systeme auf den Markt kommen. Auch wenn ein M1 das kann zur Zeit einen High-End Intel iMac oder 16' MBP übertreffen, in sechs Monaten wird ihm Sand ins Gesicht getreten - diese seltsame Pause, in der die Einstiegs-Macs anscheinend die teureren übertreffen, wird nicht lange dauern lang - Apple kann es sich nicht leisten, dass es weitergeht oder es wird High-End-Mac-Verkäufe treffen.
Das heißt, Sie müssen sicher sein, dass Sie wirklich tun Sie benötigen in erster Linie den gesamten Arbeitsspeicher Ihres Intel Mac (siehe Speicherdruck).
Was den Video-RAM angeht, ist das M1 mit ziemlicher Sicherheit besser als ein MacBook oder Mini mit integrierter Intel-Grafik. vs. ein iMac, der nur eine separate GPU mit 8 GB+ VRAM hat, ist es schwerer zu sagen.
(Außerdem müssen Sie sorgfältig prüfen, ob alle Plug-Ins, Treiber usw., die Sie benötigen, noch mit Big Sur kompatibel sind, geschweige denn mit der M1 ...)
Jemandem zu sagen, dass er effektiv 'Google gehen' soll, ist nicht besonders hilfreich, wenn das Internet mit gefälschten Informationen und unbegründeten Spekulationen schwimmt. Alles was ich gesehen habe von Apple war extrem vage, mehr Marketing- als technische Informationen und wurde auf 'Unified Memory ist schneller, weil Daten nicht zwischen Geräten kopiert werden müssen' reduziert, was nichts darüber aussagt, wie RAM zugewiesen wird. Alles, was Sie mit einer Google-Suche erhalten, sind viele Tech-Sites, die auf dieselben begrenzten Apple-Daten spekulieren. Die Möglichkeit, dass der entsprechende VRAM 'auf Abruf' zugewiesen wird, ist eine sehr plausible Spekulation - aber es sei denn, jemand kann darauf hinweisen Apple-Dokument das beschreibt das, es ist Spekulation.
Die Realität scheint das Unified Memory zu sein ist effizienter - aber wie effizienter ist schwer zu testen und schwer von den anderen Leistungssteigerungen des M1 zu isolieren (...was viel weniger beeindruckend aussehen könnte, wenn höherwertige Apple Silicon Macs erscheinen).
Viele YouTube-Sachen scheinen von Leuten zu kommen, die den Unterschied zwischen 'Memory Used' und 'Memory Pressure' oder 'Swap Used' und Swap nicht verstehen Bewertung - oder nach einer RAM-bezogenen Beschleunigung für Workflows suchen, die den RAM eines Intel-Systems nicht belasten ...
dmccloud
- 7. September 2009
- Ankerplatz, AK
- 1. Februar 2021
leman sagte: Wie soll das Ihre Behauptung stützen? Was ich frage ist - haben Sie irgendwelche Tatsachenbeweise oder einen Verweis auf eine Quelle, die solche Tatsachenbeweise dafür liefert, dass die GPU-Speicherzuweisung bei Intel- und Apple-GPUs unterschiedlich funktioniert? Beide verwenden eine einheitliche Speicherarchitektur mit Last-Level-Cache, die zwischen CPU und GPU geteilt wird. M1 reserviert definitiv etwas Speicher für die GPU-Nutzung, obwohl ich mir nicht sicher bin, wie viel.
x86 verwendet KEINEN einheitlichen Speicher für den System-RAM. UMA bezieht sich auf das RAM-Setup im System, nicht auf den CPU-Cache. Bei der x86-Plattform partitioniert das System den Arbeitsspeicher in einen CPU- und einen iGPU-Bereich. Für die iGPU reserviert das System in der Regel rund 2 GB für GPU-Operationen, sodass nur 6 GB für die CPU zur Verfügung stehen. Bei Operationen, bei denen die Daten sowohl von der CPU als auch von der iGPU manipuliert werden müssen, werden sie zweimal über den Systembus in den RAM kopiert (einmal pro Partition). fügt zusätzliche Verarbeitungszeit hinzu. Mit dem UMA-Setup, das der M1 verwendet, können sowohl die CPU als auch die iGPU gleichzeitig auf den gesamten System-RAM zugreifen (dh es gibt keine Partitionierung des RAM zwischen CPU und GPU). Dies bedeutet, dass Daten nur einmal in den RAM kopiert werden, und da alle Operationen können gleichzeitig erfolgen, es gibt keinen Overhead, der mit dem Abgleichen zweier Versionen derselben Daten verbunden ist, sobald sie vom RAM an die CPU zurückgesendet wurden.
dmccloud
- 7. September 2009
- Ankerplatz, AK
- 1. Februar 2021
leman sagte: Intel-Dokumentation stimmt nicht mit Ihnen überein.
https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Soweit ich nachfülle, verwendet Intel Unified Memory seit mindestens Sandy Bridge, vielleicht früher. Es kann einige Einschränkungen geben, nicht 100% sicher.
Eine Sache, die Sie beachten müssen, ist, dass Intels Verwendung des Begriffs 'UMA' irreführend ist. Für Intels Zwecke haben sie Intel HD nur in UMA umbenannt, aber keine Änderungen an der zugrunde liegenden Architektur vorgenommen. Auf der anderen Seite ist Apples Ansatz im Wesentlichen das, was AMD mit der Entwicklung seiner Infinity Fabric-Technologie für CPUs der Ryzen-Serie seit Jahren versucht. Hier ist eine relativ vereinfachte Erklärung, warum der Ansatz von Apple nicht mit dem von Intel identisch ist:
Der Speicher des M1-Prozessors ist ein einzelner Pool, auf den jeder Teil des Prozessors zugreifen kann. Wenn das System mehr Speicher für Grafiken benötigt, kann es diesen zuweisen. Wenn es mehr Speicher für die Neural Engine benötigt, ebenso. Noch besser, da alle Aspekte des Prozessors auf den gesamten Systemspeicher zugreifen können, gibt es keine Leistungseinbußen, wenn die Grafikkerne auf etwas zugreifen müssen, auf das zuvor ein Prozessorkern zugegriffen hat. Auf anderen Systemen müssen die Daten von einem Teil des Speichers in einen anderen kopiert werden – aber auf dem M1 sind sie einfach sofort zugänglich.
Sogar die Erwähnung von 'Zuordnung' oben ist irreführend und ein Artefakt der x86-Plattform. Da Apples UMA den Arbeitsspeicher nicht zwischen GPU und CPU aufteilt, gibt es keine tatsächliche Zuweisung des Arbeitsspeichers zwischen CPU und GPU.
Bei M1-Macs ist der Speicher einfach nicht mehr das, was er einmal war
Apple hat die Art und Weise, wie RAM in einem Computer verwendet wird, geändert. Und es ist Zeit, unser Denken zu ändern.Krevnik
- 8. September 2003
- 1. Februar 2021
dmccloud sagte: Man muss sich klar machen, dass Intels Verwendung des Begriffs 'UMA' irreführend ist. Für Intels Zwecke haben sie Intel HD nur in UMA umbenannt, aber keine Änderungen an der zugrunde liegenden Architektur vorgenommen.
Ich bin ehrlich, leman und mi7chy weisen (trotz der dreisten Einstellung) auf gute Quellen hin, die Intel zumindest Zero Copy und dynamische Partitionsgröße unterstützt.
Auch wenn es nicht die wahre UMA ist, wie Sie behaupten, sieht es so aus, als ob es aus den Dokumenten, die ich bisher gelesen habe, zumindest in der Lage ist, Speicherseiten für Zero-Copy zu verwenden, was meiner Meinung nach einige interessante Tricks bietet, um die dieselbe RAM-Seite steht beiden Seiten zur Verfügung.
Die Frage, die ich habe, von der ich hoffe, dass die Dokumentation sie beantworten wird, sobald ich mehr Zeit habe, ist, wie diese Seiten detaillierter behandelt werden und welche Art von Integration das Betriebssystem durchführen muss, um dies am besten zu nutzen. Aber selbst mit dieser Antwort, wenn die Betriebssystem-APIs der GPU signalisieren müssen, wie die Seiten zu verwalten sind, wie viel Optimierung hat Apple dort vorgenommen?
leman sagte: Intel-Dokumentation stimmt nicht mit Ihnen überein.
https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Soweit ich nachfülle, verwendet Intel Unified Memory seit mindestens Sandy Bridge, vielleicht früher. Es kann einige Einschränkungen geben, nicht 100% sicher.
Mein Verständnis der GPU-Architektur von Intel hat sich als veraltet erwiesen. Tatsächlich sollte es in diesem Fall keine großen Unterschiede geben.
Mein Verständnis war, dass noch einige feste Partitionierungen im Gange waren, aber es sieht so aus, als hätte Google alte Artikel dazu ausgegraben, was mich auf den falschen Weg führte.
thedocbwarren sagte: Denke, das könnte helfen: https://developer.apple.com/videos/play/wwdc2020/10632/
Dies erklärt die bei Mobilgeräten, Konsolen und Low-Power-GPUs übliche Rendermethode. Aus diesem Grund benötigen Sie weniger Speicher als dGPUs. Kachel-Rendering war eine Möglichkeit, 3D in kleineren Kacheln zu verarbeiten und Änderungen zu scannen usw. Es wird seit Jahren sowohl auf Konsolen als auch auf neueren Tablets (iPad) durchgeführt.
Aus diesem Grund ist es nicht klar, wie viel Speicher Sie für Texturen und Rednering verwenden. Es unterscheidet sich von der Funktionsweise von dGPUs mit Framebuffern.
Mein Verständnis nach dem erneuten Überfliegen des Videos (es ist ein paar Monate her, seit ich es das letzte Mal gesehen habe) ist, dass sich dies nicht unbedingt auf die Menge des benötigten Videospeichers auswirkt, sondern eher auf den Druck auf die Speicherbandbreite.
Ich benötige immer noch X MB für eine Textur einer bestimmten Größe und X MB für den Framebuffer in beiden Designs. TBDR reduziert jedoch die Häufigkeit, mit der Sie (V)RAM erreichen müssen, insbesondere in Situationen, in denen Sie mehrere Durchgänge durchführen müssen. Es *könnte* die Zwischenpuffer ein wenig reduzieren, aber das setzt voraus, dass Zwischenpuffer im Vergleich zu den anderen verwendeten Puffern einen spürbaren Beitrag leisten. Mein Verständnis war, dass der Backpuffer selbst als Zwischenpuffer verwendet wurde, daher bin ich etwas skeptisch, dass dort große Gewinne zu erzielen sind. Das Zeichnen auf Texturen scheint heutzutage üblich zu sein, daher könnte es mehr geben, als ich erwarte, vorausgesetzt, diese Szenarien können alle auf Kachelebene und nicht auf einer Textur ausgeführt werden. Zuletzt bearbeitet: 1. Februar 2021
dmccloud
- 7. September 2009
- Ankerplatz, AK
- 1. Februar 2021
Kommen wir zum letzten Punkt, dem On-Chip-Speicher. Beim M1 ist dies auch Teil des SoC. Der Speicher im M1 wird als „Unified Memory Architecture“ (UMA) bezeichnet, die es der CPU, der GPU und anderen Kernen ermöglicht, Informationen untereinander auszutauschen, und mit einheitlichem Speicher. CPU und GPU können gleichzeitig auf den Speicher zugreifen, anstatt Daten zwischen einem Bereich zu kopieren . Erik fährt fort…
Lange Zeit waren bei Budget-Computersystemen CPU und GPU auf demselben Chip (gleicher Siliziumchip) integriert. In der Vergangenheit war das Wort „integrierte Grafik“ im Wesentlichen dasselbe wie das Wort „langsame Grafik“. Diese waren aus mehreren Gründen langsam:
Für CPU und GPU wurden separate Bereiche dieses Speichers reserviert. Wenn die CPU einen Datenblock hatte, den die GPU verwenden sollte, konnte sie hier nicht sagen, dass sie etwas von meinem Speicher hat. Nein, die CPU musste den gesamten Datenblock explizit über den von der GPU kontrollierten Speicherbereich kopieren.
Der Teil zu den 'Budget-Computersystemen' verwendet Intel bis heute für integrierte Grafik. Das hat sich nicht geändert, unabhängig davon, wie Intel ihre Architektur nennt.
Warum der Apple M1-Chip so schnell ist - Ein Entwickler erklärt | Produktionsexperte
Sie haben sich vielleicht schon gefragt, warum der Apple M1 Chip so schnell ist? In diesem Artikel erfahren wir von einem Entwickler, was selbst diese Einstiegs-Macs so schnell macht. www.pro-tools-expert.comJohnny Srouji sprach dies während der WWDC direkt an:
'Zugreifen auf dieselben Daten, ohne sie zwischen mehreren Speicherpools zu kopieren'
Apples M1: Ein genauerer Blick auf den Chip im Inneren der neuesten Macs
Auf der Apple-Veranstaltung mit dem Titel 'One More Thing' gab das Unternehmen den Zuschauern eine virtuelle Tour durch den M1-Chip und seine 16 Milliarden Transistoren. www.techrepublic.comthedocbwarren
- 10.11.2017
- San Francisco, Kalifornien
- 1. Februar 2021
Krevnik sagte: Ich bin ehrlich, leman und mi7chy weisen (trotz der dreisten Einstellung) auf gute Quellen hin, die Intel zumindest Zero Copy und dynamische Partitionsgröße unterstützt.
Auch wenn es nicht die wahre UMA ist, wie Sie behaupten, sieht es so aus, als ob es aus den Dokumenten, die ich bisher gelesen habe, zumindest in der Lage ist, Speicherseiten für Zero-Copy zu verwenden, was meiner Meinung nach einige interessante Tricks bietet, um die dieselbe RAM-Seite steht beiden Seiten zur Verfügung.
Die Frage, die ich habe, von der ich hoffe, dass die Dokumentation sie beantworten wird, sobald ich mehr Zeit habe, ist, wie diese Seiten detaillierter behandelt werden und welche Art von Integration das Betriebssystem durchführen muss, um dies am besten zu nutzen. Aber selbst mit dieser Antwort, wenn die Betriebssystem-APIs der GPU signalisieren müssen, wie die Seiten zu verwalten sind, wie viel Optimierung hat Apple dort vorgenommen?
Mein Verständnis der GPU-Architektur von Intel hat sich als veraltet erwiesen. Tatsächlich sollte es in diesem Fall keine großen Unterschiede geben.
Mein Verständnis war, dass noch einige feste Partitionierungen im Gange waren, aber es sieht so aus, als hätte Google alte Artikel dazu ausgegraben, was mich auf den falschen Weg führte.
Mein Verständnis nach dem erneuten Überfliegen des Videos (es ist ein paar Monate her, seit ich es das letzte Mal gesehen habe) ist, dass sich dies nicht unbedingt auf die Menge des benötigten Videospeichers auswirkt, sondern eher auf den Druck auf die Speicherbandbreite.
Ich benötige immer noch X MB für eine Textur einer bestimmten Größe und X MB für den Framebuffer in beiden Designs. TBDR reduziert jedoch die Häufigkeit, mit der Sie (V)RAM erreichen müssen, insbesondere in Situationen, in denen Sie mehrere Durchgänge durchführen müssen. Es *könnte* die Zwischenpuffer ein wenig reduzieren, aber das setzt voraus, dass Zwischenpuffer im Vergleich zu den anderen verwendeten Puffern einen spürbaren Beitrag leisten. Mein Verständnis war, dass der Backpuffer selbst als Zwischenpuffer verwendet wurde, daher bin ich etwas skeptisch, dass dort große Gewinne zu erzielen sind. Das Zeichnen auf Texturen scheint heutzutage üblich zu sein, daher könnte es mehr geben, als ich erwarte, vorausgesetzt, diese Szenarien können alle auf Kachelebene und nicht auf einer Textur ausgeführt werden.
dmccloud
- 7. September 2009
- Ankerplatz, AK
- 1. Februar 2021
thedocbwarren sagte: Sicher veraltet. Ich bin noch entsetzt über die Tatsache, dass sie jetzt (an OEMs) diskrete Versionen der Iris Xe verkaufen werden. Immer mehr Verbreitung in der Architektur. So ein Chaos.
Die Iris Xe ist nichts anderes als eine umbenannte Intel UHD iGPU (die selbst von Intel HD umbenannt wurde). Es ist, als würden sie versuchen, einen Chevelle als brandneues Auto zu präsentieren, indem sie nur das Äußere neu lackieren ...
thedocbwarren
- 10.11.2017
- San Francisco, Kalifornien
- 1. Februar 2021
dmccloud sagte: Die Iris Xe ist nichts anderes als eine umbenannte Intel UHD iGPU (die selbst von Intel HD umbenannt wurde). Es ist, als würden sie versuchen, einen Chevelle als brandneues Auto zu präsentieren, indem sie nur das Äußere neu lackieren ...So wahr, ich kann nicht glauben, dass sie auch diskrete Karten für die 11.
robco74
- 22.11.2020
- 1. Februar 2021
quarkysg
- 12. Oktober 2019
- 1. Februar 2021
leman sagte: Intel-Dokumentation stimmt nicht mit Ihnen überein.Scheint nur Gen 11 iGPU zu beschreiben? Gilt das auch für iGPUs früherer Generationen?
https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
Beliebte Beiträge