Aller au contenu

Puissance graphique des puces Apple M1 Pro et M1 Max « entrée de gamme »


LolYangccool

Messages recommandés

Bonsoir,

J'ai vu sur ce site que la puce M1 Pro 16 coeurs GPU et la puce M1 Max 32 coeurs GPU auraient respectivement une puissance de 5,2 et 10,4TFlops.
Si je suis pas trop mauvais en math, pour moi 10,4 c'est le double de 5,2, ce qui correspond au doublement des coeurs graphique de la M1 Pro et de la M1 Max.
La première constatation, c'est donc que la puce M1 Max a des coeurs graphiques aussi puissant que la puce M1 Pro, et que si les performances sont plus importantes, c'est uniquement parce qu'il y a plus de coeurs à disposition.

A partir de là, étant donné qu'on a une proportion, j'ai calculé la puissance que devraient avoir la puce M1 Pro avec 14 coeurs GPU et la puce M1 Max avec 24 coeurs GPU, qui correspondent aux puces embarquées dans mon MacBook Pro 14 pouces et dans mon Mac Studio, par simple curiosité.
J'ai fait un simple produit en croix, et j'obtiens 4,55TFlops pour la M1 Pro 14 coeurs GPU et 7,8TFlops pour la puce M1 Max 24 coeurs GPU.

Ai-je une démarche correcte pour calculer la puissance de ces deux puces « chip binnées » ou suis-je totalement dans le faux ?

Merci. :)

Modifié par LolYangccool
Lien vers le commentaire
Partager sur d’autres sites

Je dirais oui et non, en fonction de ce que tu fais.

Pour ce qui est du GPGPU, c'est à dire du calcul massivement parallèle, oui (en première approximation). Si je vois bien, chaque cœur GPU dispose de 128 cœurs "GPGPU". Donc le M1 Pro dispose de 2048 cœurs GPGPU ( = Cuda Core chez Nvidia). A titre indicatif, la GTX 970, offre 1664 Cuda Core.

S'il faut calculer 100.000x la même chose, le M1 Pro va nécessiter 49 batchs (100.000 / 2048). Le M1 Max, c'est 4096 cœurs, donc il ne faut que 24 batchs (100.000 / 4096). A fréquence égale et si tous le reste suit (mémoire, bus, ...) alors oui, le M1 Max est 2x plus performante que le M1 Pro.

Par contre, tout ce qui n'est pas "autant" proportionnel que le GPGU, c'est beaucoup moins clair. L'exemple typique, ce sont les fps dans un jeu. Parfois (on l'a vu dans une news récente), lorsque le CPU est le facteur limitant, les fps double (sur des tests 4K je crois), a contrario sur des résolutions moins exigeante pour le GPU, les autres facteurs deviennent limitants.

Mais c'est exactement la même chose pour AMD et Nvidia.

Lien vers le commentaire
Partager sur d’autres sites

Le 03/04/2022 à 01:23, LolYangccool a dit :

Ai-je une démarche correcte pour calculer la puissance de ces deux puces « chip binnées » ou suis-je totalement dans le faux ?

Non c'est ça. Les puissances de calcul théoriques s'additionnent tout bêtement. Après comme pour tout ce qui est calcul parallèle (les GPU sont des puces qui font du calcul massivement parallèle) il y a la notion de "scalabilité", qui dépend des applications : par exemple en passant de 4 à 8 coeurs tu vas avoir des applications qui vont aller 2 fois plus vite, d'autres 50% plus vite, ou 20% plus vite, ou pas du tout plus vite. En général la scalabilité est très bonne au départ, puis se dégrade quand on ajoute des unités de calcul, mais là encore le moment où ça se dégrade dépend des applications.

Exemple de graphe de scalabilité :

8-Figure11-1.png

Modifié par pehache
Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
×
×
  • Créer...