Foren

M1-GPU-Auslastung beeinträchtigt den Speicherpool?

m

Majormike

Originalplakat
15. Mai 2012
  • 31.01.2021
Hi,

Wie viel RAM benötigt der M1 aus dem Speicherpool, um die GPU zu betreiben?

Ich möchte es für die Musikproduktion holen und wäre mit 16 Gigs zufrieden, aber ich bin mir nicht sicher, wie viel Speicher die GPU verbraucht, insbesondere bei einem externen Display?

warp9

8. Juni 2017
  • 31.01.2021
Es erfordert nur wenige Megabyte, um ein Display auszuführen, aber GPUs werden auch für maschinelles Lernen, Pixelarrays und spezielle Berechnungen verwendet. Es hängt wirklich von der Software ab, die Sie verwenden.

Schauen Sie sich in den Einstellungen um und sehen Sie, ob Sie GPU-Einstellungen erkennen können. Photoshop kann beispielsweise GPUs stark nutzen, aber es kann auch deaktiviert werden.
Reaktionen:gepanzert IN

Wizec

30.06.2019


  • 31.01.2021
Für Spiele mit 1080p bei hohen bis sehr hohen Grafikeinstellungen mit aktiviertem AA benötigen Sie 4 GB bis 6 GB Videospeicher

Wie viel Videospeicher (VRAM) benötigen Sie für Gaming im Jahr 2021?

Finden Sie heraus, wie viel Videospeicher (VRAM) Sie in einer Grafikkarte für Spiele mit unterschiedlichen Auflösungen und Grafikeinstellungen für die neuesten AAA-Spiele von heute benötigen. Videospeicher oder VRAM ist ein Hochgeschwindigkeits-DRAM (Dynamic RAM), das in diskreten Grafikkarten oder Videokarten verwendet wird. Das ist ein Pufferspeicher, nur... Grafikkartenhub.com
Wenn Sie nicht spielen, dann wahrscheinlich nur einige hundert MB, abhängig von der Auflösung und Farbtiefe Ihres Monitors. Sobald Sie 4K und Millionen von Farben erreicht haben, kann es jedoch viel höher werden, sogar für Aufgaben wie das Surfen im Internet:

Das einzige potenzielle Problem, das wir gefunden haben, war während der 4k-Webbrowser-Tests, bei denen unsere Protokollierung zeigte, dass die Grafikkarten bis zu 1.260 MB Videospeicher verbrauchen. Um dies ins rechte Licht zu rücken, ist dies ungefähr dreimal so viel Videospeicher, der verwendet worden wäre, wenn wir die gleichen Aufgaben auf einem 1080p-Monitor ausgeführt hätten.

Anforderungen und Verwendung von 4K-Monitoren

4k-Displays haben ungefähr die vierfache Anzahl von Pixeln als ein Standard-1080p-Display, was zu einer enormen Verbesserung der Bildqualität führt. Da die Technologie aber noch relativ neu ist, gibt es viele Fragen und Missverständnisse darüber, was man braucht, um einen 4k-Monitor zu betreiben. Um zu... www.pugetsystems.com Zuletzt bearbeitet: 31.01.2021
Reaktionen:Tagbert DAS

leman

14. Oktober 2008
  • 1. Februar 2021
Majormike sagte: Hallo,

Wie viel RAM benötigt der M1 aus dem Speicherpool, um die GPU zu betreiben?

Ich möchte es für die Musikproduktion holen und wäre mit 16 Gigs zufrieden, aber ich bin mir nicht sicher, wie viel Speicher die GPU verbraucht, insbesondere bei einem externen Display?

Ich würde mir darüber keine Sorgen machen. Alle Systeme reservieren etwas Speicher für grundlegende Funktionen, M1 unterscheidet sich in dieser Hinsicht nicht allzu sehr von Intel-Maschinen. Die GPU kann Ihren Arbeitsspeicher nicht kannibalisieren. Ganz zu schweigen davon, dass Ihre Musikproduktionssoftware wahrscheinlich die GPU für die Verarbeitung verwendet. m

Modernape

21. Juni 2010
  • 1. Februar 2021
Die M1-GPU hat keinen zugewiesenen RAM wie die Intel-Maschinen, wo die GPU vielleicht 1,5 GB beiseite gelegt hätte, die die CPU daher nicht nutzen könnte. Wenn Sie die GPU nicht so stark auslasten, steht Ihnen der größte Teil des Arbeitsspeichers für die CPU zur Verfügung.
Reaktionen:mds1256 und LeeW DAS

leman

14. Oktober 2008
  • 1. Februar 2021
Modernape sagte: Die M1-GPU hat keinen zugewiesenen RAM wie die Intel-Maschinen, wo die GPU vielleicht 1,5 GB beiseite gelegt hätte, die die CPU daher nicht nutzen könnte. Wenn Sie die GPU nicht so stark auslasten, steht Ihnen der größte Teil des Arbeitsspeichers für die CPU zur Verfügung.

Woher weißt du das? m

Modernape

21. Juni 2010
  • 1. Februar 2021
leman sagte: Woher wissen Sie das?
m1 soc vereinheitlichte speicherarchitektur - Google-Suche
Reaktionen:mds1256, chabig und konsumitis DAS

leman

14. Oktober 2008
  • 1. Februar 2021
Modernape sagte: m1 soc vereinheitlichte speicherarchitektur - Google-Suche

Wie soll das Ihre Behauptung stützen? Was ich frage ist - haben Sie irgendwelche Tatsachenbeweise oder einen Verweis auf eine Quelle, die solche Tatsachenbeweise dafür liefert, dass die GPU-Speicherzuweisung bei Intel- und Apple-GPUs unterschiedlich funktioniert? Beide verwenden eine einheitliche Speicherarchitektur mit Last-Level-Cache, die zwischen CPU und GPU geteilt wird. M1 reserviert definitiv etwas Speicher für die GPU-Nutzung, obwohl ich mir nicht sicher bin, wie viel. m

Modernape

21. Juni 2010
  • 1. Februar 2021
leman sagte: Wie soll das Ihre Behauptung stützen? Was ich frage ist - haben Sie irgendwelche Tatsachenbeweise oder einen Verweis auf eine Quelle, die solche Tatsachenbeweise dafür liefert, dass die GPU-Speicherzuweisung bei Intel- und Apple-GPUs unterschiedlich funktioniert? Beide verwenden eine einheitliche Speicherarchitektur mit Last-Level-Cache, die zwischen CPU und GPU geteilt wird. M1 reserviert definitiv etwas Speicher für die GPU-Nutzung, obwohl ich mir nicht sicher bin, wie viel.
Wow, Sie müssen diese Artikel schnell durchgelesen haben. Oh, Moment mal. Du hast sie nicht gelesen, oder?
Reaktionen:mds1256, jerryk und chabig DAS

leman

14. Oktober 2008
  • 1. Februar 2021
Modernape sagte: Wow, Sie müssen diese Artikel schnell durchgelesen haben. Oh, Moment mal. Du hast sie nicht gelesen, oder?

Ich bin mir ziemlich sicher, dass ich die relevantesten davon gelesen habe. Ich habe auch technische Analysen und Low-Level-Benchmarking der M1-GPU durchgeführt, seit ich mein Gerät im Dezember erhalten habe. Das ist auch der Grund, warum ich frage, vielleicht gibt es da draußen ein paar neue technische Informationen, die mir noch nicht bekannt sind. C

chabig

06.09.2002
  • 1. Februar 2021
Ihre Frage ist unmöglich zu beantworten. Es ist, als würde man fragen, wie viel Speicher TextEdit verwendet. Es hängt alles davon ab, was Sie tun. CPU und GPU teilen sich den Arbeitsspeicher je nach Bedarf, der sich von Moment zu Moment ändert.

Hier ist eine Apple-Referenz:

Entdecken Sie die neue Systemarchitektur von Apple Silicon Macs - WWDC20 - Videos - Apple Developer

Entdecken Sie, wie Macs mit Apple-Silizium moderne Vorteile mit der System-on-Chip (SoC)-Architektur von Apple bieten. Nutzen Sie eine einheitliche... entwickler.apple.com
Zitieren,
Wenn alles in einem Chip integriert ist, erhält das System eine vereinheitlichte Speicherarchitektur.

Das bedeutet, dass GPU und CPU über den gleichen Speicher arbeiten. Grafikressourcen wie Texturen, Bilder und Geometriedaten können effizient und ohne Overhead zwischen CPU und GPU geteilt werden, da keine Daten über einen PCIe-Bus kopiert werden müssen.

Krevnik

8. September 2003
  • 1. Februar 2021
Leman sagte: Ich bin mir ziemlich sicher, dass ich die relevantesten davon gelesen habe. Ich habe auch technische Analysen und Low-Level-Benchmarking der M1-GPU durchgeführt, seit ich mein Gerät im Dezember erhalten habe. Das ist auch der Grund, warum ich frage, vielleicht gibt es da draußen ein paar neue technische Informationen, die mir noch nicht bekannt sind.

Intel Desktop- und Laptop-Chips verwenden kein UMA, sondern Shared Memory. Bei Intel muss der GPU ein partitionierter RAM-Block zugewiesen werden, der verwendet werden soll. Die CPU kann nicht auf die der GPU zugewiesene Partition zugreifen und umgekehrt. Sie müssen also noch Daten zwischen den Partitionen kopieren.

Der ganze Unterschied zwischen Unified Memory und Shared Memory besteht in der fehlenden Partitionierung. GPU und CPU können auf denselben Speicherblock zugreifen. Im Vergleich zu Intel bietet es zwei spezifische Vorteile:

1. Ohne RAM für die Verwendung als Videospeicher vorab zuweisen zu müssen, müssen Sie sich nicht mit bestimmten Grenzen des Videospeichers (die zuvor erwähnten 1,5 GB) befassen und können leichter zwischen CPU- und GPU-Bedarf ausgleichen.
2. Der Verzicht auf das Kopieren von Puffern bedeutet messbare RAM-Einsparungen, weniger Druck auf die Speicherbandbreite und eine gewisse Erhöhung der Latenz.

Diese Vorteile sind ein Grund, warum Spielekonsolen UMA verwenden. Die Speicher- und Latenzeinsparungen tragen dazu bei, die Kosten für das benötigte GDDR gering zu halten.
Reaktionen:gepanzert und jdb8167 DAS

leman

14. Oktober 2008
  • 1. Februar 2021
Krevnik sagte: Intel Desktop- und Laptop-Chips verwenden kein UMA, sie verwenden Shared Memory. Bei Intel muss der GPU ein partitionierter RAM-Block zugewiesen werden, der verwendet werden soll. Die CPU kann nicht auf die der GPU zugewiesene Partition zugreifen und umgekehrt. Sie müssen also noch Daten zwischen den Partitionen kopieren.

Die Intel-Dokumentation stimmt Ihnen nicht zu.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Soweit ich nachfülle, verwendet Intel Unified Memory seit mindestens Sandy Bridge, vielleicht früher. Es kann einige Einschränkungen geben, nicht 100% sicher. Zuletzt bearbeitet: 1. Februar 2021
Reaktionen:AAPLGeek T

das Gepäck

29.07.2011
  • 1. Februar 2021
majormike sagte: Ich möchte es für die Musikproduktion haben und wäre mit 16 Gigs zufrieden, aber ich bin mir nicht sicher, wie viel Speicher die GPU verbraucht, insbesondere mit einem externen Display?
Es sei denn, jemand meldet sich mit Speicherdruckmesswerten von einem 16-GB-M1-Computer, auf dem etwas in der Nähe Ihrer beabsichtigten Arbeitslast ausgeführt wird - jeder kann es sich vorstellen. 'Musikproduktion' ist ein Stück Fäden für den Anfang (die RAM-Nutzung hängt ganz davon ab, welche Art von virtuellen Instrumenten und Plug-Ins Sie verwenden). Einige Musik-Apps haben ziemlich ausgeklügelte Benutzeroberflächen, und das Ausführen einiger hochauflösender Displays erfordert mehr RAM, das dem Video zugewiesen wird – insbesondere wenn Sie skalierte Modi verwenden, bei denen alles in einen internen Puffer gerendert und dann heruntergerechnet wird.

Die Chancen stehen gut, dass ein M1 nicht nur Ihre Arbeit erledigt, sondern auch schneller, weil sie rundum effizienter ist und was Sie auf den Kreisverkehren verlieren, gewinnen Sie auf den Schaukeln - und es gab viele Youtube-Demos, die zeigen, dass sie funktioniert jede Menge Logic Pro-Tracks und -Instrumente.

Die sichere Annahme ist jedoch, dass, wenn Ihr Workflow tatsächlich mehr als 16 GB auf Intel benötigt, dies zumindest der Fall ist Nutzen von mehr als 16 GB auf Apple Silicon und warten Sie am besten, bis die höherwertigen Apple Silicon-Systeme auf den Markt kommen. Auch wenn ein M1 das kann zur Zeit einen High-End Intel iMac oder 16' MBP übertreffen, in sechs Monaten wird ihm Sand ins Gesicht getreten - diese seltsame Pause, in der die Einstiegs-Macs anscheinend die teureren übertreffen, wird nicht lange dauern lang - Apple kann es sich nicht leisten, dass es weitergeht oder es wird High-End-Mac-Verkäufe treffen.

Das heißt, Sie müssen sicher sein, dass Sie wirklich tun Sie benötigen in erster Linie den gesamten Arbeitsspeicher Ihres Intel Mac (siehe Speicherdruck).

Was den Video-RAM angeht, ist das M1 mit ziemlicher Sicherheit besser als ein MacBook oder Mini mit integrierter Intel-Grafik. vs. ein iMac, der nur eine separate GPU mit 8 GB+ VRAM hat, ist es schwerer zu sagen.

(Außerdem müssen Sie sorgfältig prüfen, ob alle Plug-Ins, Treiber usw., die Sie benötigen, noch mit Big Sur kompatibel sind, geschweige denn mit der M1 ...)

Modernape sagte: Wow, Sie müssen diese Artikel schnell durchgelesen haben. Oh, Moment mal. Du hast sie nicht gelesen, oder?

Jemandem zu sagen, dass er effektiv 'Google gehen' soll, ist nicht besonders hilfreich, wenn das Internet mit gefälschten Informationen und unbegründeten Spekulationen schwimmt. Alles was ich gesehen habe von Apple war extrem vage, mehr Marketing- als technische Informationen und wurde auf 'Unified Memory ist schneller, weil Daten nicht zwischen Geräten kopiert werden müssen' reduziert, was nichts darüber aussagt, wie RAM zugewiesen wird. Alles, was Sie mit einer Google-Suche erhalten, sind viele Tech-Sites, die auf dieselben begrenzten Apple-Daten spekulieren. Die Möglichkeit, dass der entsprechende VRAM 'auf Abruf' zugewiesen wird, ist eine sehr plausible Spekulation - aber es sei denn, jemand kann darauf hinweisen Apple-Dokument das beschreibt das, es ist Spekulation.

Die Realität scheint das Unified Memory zu sein ist effizienter - aber wie effizienter ist schwer zu testen und schwer von den anderen Leistungssteigerungen des M1 zu isolieren (...was viel weniger beeindruckend aussehen könnte, wenn höherwertige Apple Silicon Macs erscheinen).

Viele YouTube-Sachen scheinen von Leuten zu kommen, die den Unterschied zwischen 'Memory Used' und 'Memory Pressure' oder 'Swap Used' und Swap nicht verstehen Bewertung - oder nach einer RAM-bezogenen Beschleunigung für Workflows suchen, die den RAM eines Intel-Systems nicht belasten ...
Reaktionen:gepanzert und mszilard

mi7chy

24.10.2014
  • 1. Februar 2021
Krevnik sagte: Der ganze Unterschied zwischen Unified Memory und Shared Memory besteht in der fehlenden Partitionierung. GPU und CPU können auf denselben Speicherblock zugreifen. Im Vergleich zu Intel bietet es zwei spezifische Vorteile:

1. Ohne RAM für die Verwendung als Videospeicher vorab zuweisen zu müssen, müssen Sie sich nicht mit bestimmten Grenzen des Videospeichers (die zuvor erwähnten 1,5 GB) befassen und können leichter zwischen CPU- und GPU-Bedarf ausgleichen.
2. Der Verzicht auf das Kopieren von Puffern bedeutet messbare RAM-Einsparungen, weniger Druck auf die Speicherbandbreite und eine gewisse Erhöhung der Latenz.

Intel sagt etwas anderes mit dynamischer Zuweisung und Zero Copy Buffer. Meine BS-Ignorierliste wird immer größer.

https://www.intel.com/content/www/us/en/support/articles/000020962/graphics.html

https://software.intel.com/content/...uffer-copies-on-intel-processor-graphics.html Zuletzt bearbeitet: 1. Februar 2021
Reaktionen:AlumaMac, leman und AAPLGeek

thedocbwarren

10.11.2017
San Francisco, Kalifornien
  • 1. Februar 2021
Denke das könnte helfen: https://developer.apple.com/videos/play/wwdc2020/10632/

Dies erklärt die bei Mobilgeräten, Konsolen und Low-Power-GPUs übliche Rendermethode. Aus diesem Grund benötigen Sie weniger Speicher als dGPUs. Kachel-Rendering war eine Möglichkeit, 3D in kleineren Kacheln zu verarbeiten und Änderungen zu scannen usw. Es wird seit Jahren sowohl auf Konsolen als auch auf neueren Tablets (iPad) durchgeführt.

Aus diesem Grund ist es nicht klar, wie viel Speicher Sie für Texturen und Rednering verwenden. Es unterscheidet sich von der Funktionsweise von dGPUs mit Framebuffern.

theluggage sagte: Es sei denn, jemand meldet sich mit Speicherdruckwerten von einem 16-GB-M1-Rechner, auf dem etwas in der Nähe Ihrer beabsichtigten Arbeitslast ausgeführt wird - jeder kann es vermuten. 'Musikproduktion' ist ein Stück Fäden für den Anfang (die RAM-Nutzung hängt ganz davon ab, welche Art von virtuellen Instrumenten und Plug-Ins Sie verwenden). Einige Musik-Apps haben ziemlich ausgeklügelte Benutzeroberflächen, und das Ausführen einiger hochauflösender Displays erfordert mehr RAM, das dem Video zugewiesen wird – insbesondere wenn Sie skalierte Modi verwenden, bei denen alles in einen internen Puffer gerendert und dann heruntergerechnet wird.

Die Chancen stehen gut, dass ein M1 nicht nur Ihre Arbeit erledigt, sondern auch schneller, weil sie rundum effizienter ist und was Sie auf den Kreisverkehren verlieren, gewinnen Sie auf den Schaukeln - und es gab viele Youtube-Demos, die zeigen, dass sie funktioniert jede Menge Logic Pro-Tracks und -Instrumente.

Die sichere Annahme ist jedoch, dass, wenn Ihr Workflow tatsächlich mehr als 16 GB auf Intel benötigt, dies zumindest der Fall ist Nutzen von mehr als 16 GB auf Apple Silicon und warten Sie am besten, bis die höherwertigen Apple Silicon-Systeme auf den Markt kommen. Auch wenn ein M1 das kann zur Zeit einen High-End Intel iMac oder 16' MBP übertreffen, in sechs Monaten wird ihm Sand ins Gesicht getreten - diese seltsame Pause, in der die Einstiegs-Macs anscheinend die teureren übertreffen, wird nicht lange dauern lang - Apple kann es sich nicht leisten, dass es weitergeht oder es wird High-End-Mac-Verkäufe treffen.

Das heißt, Sie müssen sicher sein, dass Sie wirklich tun Sie benötigen in erster Linie den gesamten Arbeitsspeicher Ihres Intel Mac (siehe Speicherdruck).

Was den Video-RAM angeht, ist das M1 mit ziemlicher Sicherheit besser als ein MacBook oder Mini mit integrierter Intel-Grafik. vs. ein iMac, der nur eine separate GPU mit 8 GB+ VRAM hat, ist es schwerer zu sagen.

(Außerdem müssen Sie sorgfältig prüfen, ob alle Plug-Ins, Treiber usw., die Sie benötigen, noch mit Big Sur kompatibel sind, geschweige denn mit der M1 ...)



Jemandem zu sagen, dass er effektiv 'Google gehen' soll, ist nicht besonders hilfreich, wenn das Internet mit gefälschten Informationen und unbegründeten Spekulationen schwimmt. Alles was ich gesehen habe von Apple war extrem vage, mehr Marketing- als technische Informationen und wurde auf 'Unified Memory ist schneller, weil Daten nicht zwischen Geräten kopiert werden müssen' reduziert, was nichts darüber aussagt, wie RAM zugewiesen wird. Alles, was Sie mit einer Google-Suche erhalten, sind viele Tech-Sites, die auf dieselben begrenzten Apple-Daten spekulieren. Die Möglichkeit, dass der entsprechende VRAM 'auf Abruf' zugewiesen wird, ist eine sehr plausible Spekulation - aber es sei denn, jemand kann darauf hinweisen Apple-Dokument das beschreibt das, es ist Spekulation.

Die Realität scheint das Unified Memory zu sein ist effizienter - aber wie effizienter ist schwer zu testen und schwer von den anderen Leistungssteigerungen des M1 zu isolieren (...was viel weniger beeindruckend aussehen könnte, wenn höherwertige Apple Silicon Macs erscheinen).

Viele YouTube-Sachen scheinen von Leuten zu kommen, die den Unterschied zwischen 'Memory Used' und 'Memory Pressure' oder 'Swap Used' und Swap nicht verstehen Bewertung - oder nach einer RAM-bezogenen Beschleunigung für Workflows suchen, die den RAM eines Intel-Systems nicht belasten ...

dmccloud

7. September 2009
Ankerplatz, AK
  • 1. Februar 2021
leman sagte: Wie soll das Ihre Behauptung stützen? Was ich frage ist - haben Sie irgendwelche Tatsachenbeweise oder einen Verweis auf eine Quelle, die solche Tatsachenbeweise dafür liefert, dass die GPU-Speicherzuweisung bei Intel- und Apple-GPUs unterschiedlich funktioniert? Beide verwenden eine einheitliche Speicherarchitektur mit Last-Level-Cache, die zwischen CPU und GPU geteilt wird. M1 reserviert definitiv etwas Speicher für die GPU-Nutzung, obwohl ich mir nicht sicher bin, wie viel.

x86 verwendet KEINEN einheitlichen Speicher für den System-RAM. UMA bezieht sich auf das RAM-Setup im System, nicht auf den CPU-Cache. Bei der x86-Plattform partitioniert das System den Arbeitsspeicher in einen CPU- und einen iGPU-Bereich. Für die iGPU reserviert das System in der Regel rund 2 GB für GPU-Operationen, sodass nur 6 GB für die CPU zur Verfügung stehen. Bei Operationen, bei denen die Daten sowohl von der CPU als auch von der iGPU manipuliert werden müssen, werden sie zweimal über den Systembus in den RAM kopiert (einmal pro Partition). fügt zusätzliche Verarbeitungszeit hinzu. Mit dem UMA-Setup, das der M1 verwendet, können sowohl die CPU als auch die iGPU gleichzeitig auf den gesamten System-RAM zugreifen (dh es gibt keine Partitionierung des RAM zwischen CPU und GPU). Dies bedeutet, dass Daten nur einmal in den RAM kopiert werden, und da alle Operationen können gleichzeitig erfolgen, es gibt keinen Overhead, der mit dem Abgleichen zweier Versionen derselben Daten verbunden ist, sobald sie vom RAM an die CPU zurückgesendet wurden.
Reaktionen:gepanzert und chabig

dmccloud

7. September 2009
Ankerplatz, AK
  • 1. Februar 2021
leman sagte: Intel-Dokumentation stimmt nicht mit Ihnen überein.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Soweit ich nachfülle, verwendet Intel Unified Memory seit mindestens Sandy Bridge, vielleicht früher. Es kann einige Einschränkungen geben, nicht 100% sicher.

Eine Sache, die Sie beachten müssen, ist, dass Intels Verwendung des Begriffs 'UMA' irreführend ist. Für Intels Zwecke haben sie Intel HD nur in UMA umbenannt, aber keine Änderungen an der zugrunde liegenden Architektur vorgenommen. Auf der anderen Seite ist Apples Ansatz im Wesentlichen das, was AMD mit der Entwicklung seiner Infinity Fabric-Technologie für CPUs der Ryzen-Serie seit Jahren versucht. Hier ist eine relativ vereinfachte Erklärung, warum der Ansatz von Apple nicht mit dem von Intel identisch ist:

Der Speicher des M1-Prozessors ist ein einzelner Pool, auf den jeder Teil des Prozessors zugreifen kann. Wenn das System mehr Speicher für Grafiken benötigt, kann es diesen zuweisen. Wenn es mehr Speicher für die Neural Engine benötigt, ebenso. Noch besser, da alle Aspekte des Prozessors auf den gesamten Systemspeicher zugreifen können, gibt es keine Leistungseinbußen, wenn die Grafikkerne auf etwas zugreifen müssen, auf das zuvor ein Prozessorkern zugegriffen hat. Auf anderen Systemen müssen die Daten von einem Teil des Speichers in einen anderen kopiert werden – aber auf dem M1 sind sie einfach sofort zugänglich.

Sogar die Erwähnung von 'Zuordnung' oben ist irreführend und ein Artefakt der x86-Plattform. Da Apples UMA den Arbeitsspeicher nicht zwischen GPU und CPU aufteilt, gibt es keine tatsächliche Zuweisung des Arbeitsspeichers zwischen CPU und GPU.

Bei M1-Macs ist der Speicher einfach nicht mehr das, was er einmal war

Apple hat die Art und Weise, wie RAM in einem Computer verwendet wird, geändert. Und es ist Zeit, unser Denken zu ändern.
Reaktionen:gepanzert, chabig und mds1256

Krevnik

8. September 2003
  • 1. Februar 2021
dmccloud sagte: Man muss sich klar machen, dass Intels Verwendung des Begriffs 'UMA' irreführend ist. Für Intels Zwecke haben sie Intel HD nur in UMA umbenannt, aber keine Änderungen an der zugrunde liegenden Architektur vorgenommen.

Ich bin ehrlich, leman und mi7chy weisen (trotz der dreisten Einstellung) auf gute Quellen hin, die Intel zumindest Zero Copy und dynamische Partitionsgröße unterstützt.

Auch wenn es nicht die wahre UMA ist, wie Sie behaupten, sieht es so aus, als ob es aus den Dokumenten, die ich bisher gelesen habe, zumindest in der Lage ist, Speicherseiten für Zero-Copy zu verwenden, was meiner Meinung nach einige interessante Tricks bietet, um die dieselbe RAM-Seite steht beiden Seiten zur Verfügung.

Die Frage, die ich habe, von der ich hoffe, dass die Dokumentation sie beantworten wird, sobald ich mehr Zeit habe, ist, wie diese Seiten detaillierter behandelt werden und welche Art von Integration das Betriebssystem durchführen muss, um dies am besten zu nutzen. Aber selbst mit dieser Antwort, wenn die Betriebssystem-APIs der GPU signalisieren müssen, wie die Seiten zu verwalten sind, wie viel Optimierung hat Apple dort vorgenommen?

leman sagte: Intel-Dokumentation stimmt nicht mit Ihnen überein.

https://software.intel.com/sites/default/files/managed/db/88/The-Architecture-of-Intel-Processor-Graphics-Gen11_R1new.pdf#page19
Soweit ich nachfülle, verwendet Intel Unified Memory seit mindestens Sandy Bridge, vielleicht früher. Es kann einige Einschränkungen geben, nicht 100% sicher.

Mein Verständnis der GPU-Architektur von Intel hat sich als veraltet erwiesen. Tatsächlich sollte es in diesem Fall keine großen Unterschiede geben.

Mein Verständnis war, dass noch einige feste Partitionierungen im Gange waren, aber es sieht so aus, als hätte Google alte Artikel dazu ausgegraben, was mich auf den falschen Weg führte.

thedocbwarren sagte: Denke, das könnte helfen: https://developer.apple.com/videos/play/wwdc2020/10632/

Dies erklärt die bei Mobilgeräten, Konsolen und Low-Power-GPUs übliche Rendermethode. Aus diesem Grund benötigen Sie weniger Speicher als dGPUs. Kachel-Rendering war eine Möglichkeit, 3D in kleineren Kacheln zu verarbeiten und Änderungen zu scannen usw. Es wird seit Jahren sowohl auf Konsolen als auch auf neueren Tablets (iPad) durchgeführt.

Aus diesem Grund ist es nicht klar, wie viel Speicher Sie für Texturen und Rednering verwenden. Es unterscheidet sich von der Funktionsweise von dGPUs mit Framebuffern.

Mein Verständnis nach dem erneuten Überfliegen des Videos (es ist ein paar Monate her, seit ich es das letzte Mal gesehen habe) ist, dass sich dies nicht unbedingt auf die Menge des benötigten Videospeichers auswirkt, sondern eher auf den Druck auf die Speicherbandbreite.

Ich benötige immer noch X MB für eine Textur einer bestimmten Größe und X MB für den Framebuffer in beiden Designs. TBDR reduziert jedoch die Häufigkeit, mit der Sie (V)RAM erreichen müssen, insbesondere in Situationen, in denen Sie mehrere Durchgänge durchführen müssen. Es *könnte* die Zwischenpuffer ein wenig reduzieren, aber das setzt voraus, dass Zwischenpuffer im Vergleich zu den anderen verwendeten Puffern einen spürbaren Beitrag leisten. Mein Verständnis war, dass der Backpuffer selbst als Zwischenpuffer verwendet wurde, daher bin ich etwas skeptisch, dass dort große Gewinne zu erzielen sind. Das Zeichnen auf Texturen scheint heutzutage üblich zu sein, daher könnte es mehr geben, als ich erwarte, vorausgesetzt, diese Szenarien können alle auf Kachelebene und nicht auf einer Textur ausgeführt werden. Zuletzt bearbeitet: 1. Februar 2021

dmccloud

7. September 2009
Ankerplatz, AK
  • 1. Februar 2021
Intel partitioniert weiterhin den CPU- und GPU-RAM, sodass Sie Daten von der CPU-Seite zur GPU-Seite und umgekehrt kopieren müssen (fetter Abschnitt ist Apples Ansatz, der kursive Abschnitt ist Intels Ansatz):

Kommen wir zum letzten Punkt, dem On-Chip-Speicher. Beim M1 ist dies auch Teil des SoC. Der Speicher im M1 wird als „Unified Memory Architecture“ (UMA) bezeichnet, die es der CPU, der GPU und anderen Kernen ermöglicht, Informationen untereinander auszutauschen, und mit einheitlichem Speicher. CPU und GPU können gleichzeitig auf den Speicher zugreifen, anstatt Daten zwischen einem Bereich zu kopieren . Erik fährt fort…

Lange Zeit waren bei Budget-Computersystemen CPU und GPU auf demselben Chip (gleicher Siliziumchip) integriert. In der Vergangenheit war das Wort „integrierte Grafik“ im Wesentlichen dasselbe wie das Wort „langsame Grafik“. Diese waren aus mehreren Gründen langsam:
Für CPU und GPU wurden separate Bereiche dieses Speichers reserviert. Wenn die CPU einen Datenblock hatte, den die GPU verwenden sollte, konnte sie hier nicht sagen, dass sie etwas von meinem Speicher hat. Nein, die CPU musste den gesamten Datenblock explizit über den von der GPU kontrollierten Speicherbereich kopieren.


Der Teil zu den 'Budget-Computersystemen' verwendet Intel bis heute für integrierte Grafik. Das hat sich nicht geändert, unabhängig davon, wie Intel ihre Architektur nennt.


Warum der Apple M1-Chip so schnell ist - Ein Entwickler erklärt | Produktionsexperte

Sie haben sich vielleicht schon gefragt, warum der Apple M1 Chip so schnell ist? In diesem Artikel erfahren wir von einem Entwickler, was selbst diese Einstiegs-Macs so schnell macht. www.pro-tools-expert.com
Johnny Srouji sprach dies während der WWDC direkt an:

'Zugreifen auf dieselben Daten, ohne sie zwischen mehreren Speicherpools zu kopieren'

Apples M1: Ein genauerer Blick auf den Chip im Inneren der neuesten Macs

Auf der Apple-Veranstaltung mit dem Titel 'One More Thing' gab das Unternehmen den Zuschauern eine virtuelle Tour durch den M1-Chip und seine 16 Milliarden Transistoren. www.techrepublic.com
Reaktionen:chabig und thedocbwarren

thedocbwarren

10.11.2017
San Francisco, Kalifornien
  • 1. Februar 2021
Auf jeden Fall veraltet. Ich bin noch entsetzt über die Tatsache, dass sie jetzt (an OEMs) diskrete Versionen der Iris Xe verkaufen werden. Immer mehr Verbreitung in der Architektur. So ein Chaos.
Krevnik sagte: Ich bin ehrlich, leman und mi7chy weisen (trotz der dreisten Einstellung) auf gute Quellen hin, die Intel zumindest Zero Copy und dynamische Partitionsgröße unterstützt.

Auch wenn es nicht die wahre UMA ist, wie Sie behaupten, sieht es so aus, als ob es aus den Dokumenten, die ich bisher gelesen habe, zumindest in der Lage ist, Speicherseiten für Zero-Copy zu verwenden, was meiner Meinung nach einige interessante Tricks bietet, um die dieselbe RAM-Seite steht beiden Seiten zur Verfügung.

Die Frage, die ich habe, von der ich hoffe, dass die Dokumentation sie beantworten wird, sobald ich mehr Zeit habe, ist, wie diese Seiten detaillierter behandelt werden und welche Art von Integration das Betriebssystem durchführen muss, um dies am besten zu nutzen. Aber selbst mit dieser Antwort, wenn die Betriebssystem-APIs der GPU signalisieren müssen, wie die Seiten zu verwalten sind, wie viel Optimierung hat Apple dort vorgenommen?



Mein Verständnis der GPU-Architektur von Intel hat sich als veraltet erwiesen. Tatsächlich sollte es in diesem Fall keine großen Unterschiede geben.

Mein Verständnis war, dass noch einige feste Partitionierungen im Gange waren, aber es sieht so aus, als hätte Google alte Artikel dazu ausgegraben, was mich auf den falschen Weg führte.



Mein Verständnis nach dem erneuten Überfliegen des Videos (es ist ein paar Monate her, seit ich es das letzte Mal gesehen habe) ist, dass sich dies nicht unbedingt auf die Menge des benötigten Videospeichers auswirkt, sondern eher auf den Druck auf die Speicherbandbreite.

Ich benötige immer noch X MB für eine Textur einer bestimmten Größe und X MB für den Framebuffer in beiden Designs. TBDR reduziert jedoch die Häufigkeit, mit der Sie (V)RAM erreichen müssen, insbesondere in Situationen, in denen Sie mehrere Durchgänge durchführen müssen. Es *könnte* die Zwischenpuffer ein wenig reduzieren, aber das setzt voraus, dass Zwischenpuffer im Vergleich zu den anderen verwendeten Puffern einen spürbaren Beitrag leisten. Mein Verständnis war, dass der Backpuffer selbst als Zwischenpuffer verwendet wurde, daher bin ich etwas skeptisch, dass dort große Gewinne zu erzielen sind. Das Zeichnen auf Texturen scheint heutzutage üblich zu sein, daher könnte es mehr geben, als ich erwarte, vorausgesetzt, diese Szenarien können alle auf Kachelebene und nicht auf einer Textur ausgeführt werden.

dmccloud

7. September 2009
Ankerplatz, AK
  • 1. Februar 2021
thedocbwarren sagte: Sicher veraltet. Ich bin noch entsetzt über die Tatsache, dass sie jetzt (an OEMs) diskrete Versionen der Iris Xe verkaufen werden. Immer mehr Verbreitung in der Architektur. So ein Chaos.


Die Iris Xe ist nichts anderes als eine umbenannte Intel UHD iGPU (die selbst von Intel HD umbenannt wurde). Es ist, als würden sie versuchen, einen Chevelle als brandneues Auto zu präsentieren, indem sie nur das Äußere neu lackieren ...

thedocbwarren

10.11.2017
San Francisco, Kalifornien
  • 1. Februar 2021
dmccloud sagte: Die Iris Xe ist nichts anderes als eine umbenannte Intel UHD iGPU (die selbst von Intel HD umbenannt wurde). Es ist, als würden sie versuchen, einen Chevelle als brandneues Auto zu präsentieren, indem sie nur das Äußere neu lackieren ...
So wahr, ich kann nicht glauben, dass sie auch diskrete Karten für die 11.

robco74

22.11.2020
  • 1. Februar 2021
Wenn Sie Musik erstellen, sollte RAM bei der Betrachtung der neuen M1-Macs auf Ihrer Liste der Bedenken niedriger sein. Big Sur hat große Treiberänderungen vorgenommen. Erkundigen Sie sich zuerst bei allen Ihren Geräteherstellern, ob sie Big Sur und Apple Silicon unterstützen. Noch nicht alle.
Reaktionen:duervo Q

quarkysg

12. Oktober 2019
  • 1. Februar 2021
leman sagte: Intel-Dokumentation stimmt nicht mit Ihnen überein.

https://software.intel.com/sites/de...tel-Processor-Graphics-Gen11_R1new.pdf#page19
Scheint nur Gen 11 iGPU zu beschreiben? Gilt das auch für iGPUs früherer Generationen?