C'est une petite révolution qui attend l'industrie des cartes graphiques dans les prochains mois : Samsung vient d'
annoncer avoir lancé la production de masse de mémoire HBM2, ou
High Bandwith-Memory 2. Cette mémoire est tout simplement sept fois plus rapide que la GDDR5 que l'on connaît sur la plupart des cartes graphiques actuelles, tout en prenant... 95% moins de place ! De plus, la HBM2 DRAM consomme moins d'énergie, ce qui est toujours une bonne nouvelle.
Dans un premier temps, cette nouvelle génération de mémoire devrait être réservée au marché professionnel, avec une utilisation sur des serveurs et des stations de calcul. Mais la HBM2, actuellement produite sous la forme de puces de 4 Go et bientôt de 8 Go, devrait à court terme débarquer sur des cartes graphiques destinées au grand public avec des modèles embarquant 8 Go, 16 Go voire 32 Go de mémoire. De véritables monstres qui pourront trouver leur place sur un futur Mac Pro, ou pourquoi pas dans des boîtiers externes connectés à n'importe quel Mac grâce au Thunderbolt 3 (lire :
Et si Apple arrêtait les GPU internes ?). Rendez-vous, sans doute, en 2017 !
Des liens n'apparaissent pas ? Des images sont manquantes ? Votre bloqueur de pub vous joue des
tours. Pour visualiser tout notre contenu, merci de désactiver votre bloqueur de pub !
LolYangccool
21 janvier 2016 à 11:45
Vivement !
VanZoo
21 janvier 2016 à 14:19
Oh 2017 ?
Faudrait-il que je reporte l'achat d'un éventuel Mac Pro 2016 face à cette grosse évolution imminente ?
Sylvain
21 janvier 2016 à 14:27
@VanZoo : ouuuh avec Apple je ne prendrais pas ce risque.
Sethenès
21 janvier 2016 à 17:17
Précision liminaire : comme d'habitude, toute nouvelle technologie est bonne à prendre. Rien que la réduction de consommation sera déjà un gros, gros plus.
A mon avis, on est face à une bifurcation, et je ne sais pas quel chemin sera choisi. Peut être qu'en définitive on prendra successivement les deux, d'ailleurs.
Pour comprendre l'enjeu, il faut discuter des "deux" usages d'une carte graphique : le rendu d'image et l'aide au calcul. Je ne suis pas spécialiste, et c'est la partie rendu d'image que je connais le moins. Je vais forcer le trait pour que la différence soit très nette.
Comme je vois les choses, dans le rendu, le CPU envoi "quelques" infos au GPU : position des points, textures, angle, éclairage, et la carte se charge du reste. La mémoire lui sert à stocker la, en fait je pense les 2 image(s). Celle de travail et celle affichée. Quand je dis "quelques" infos, il faut se rendre compte que dans un jeu en temps réel par exemple, de nombreux éléments changent à chaque frame. Un simple déplacement du point de vue (translation ou rotation) ne nécessitant que le passage de 5 informations (x, y, z, phi, theta), bon en fait c'est plus car aujourd'hui les jeux utilisent les quaternions mais on s'en sort avec 7 informations, pas par vertex. 7 informations en tout. Evidemment si en face, il y a un streum qui bouge aussi, la il faut envoyer la nouvelle position de tous ses sommets.
Bref, le rendu, ce sont "quelques" informations qui transitent à sens unique du CPU vers le GPU. Un triangle qui couvrirait tout l'écran demanderait tout au plus le passage d'une centaine de bytes (+ la texture).
Au contraire, le calcul, implique que toutes les informations soient transmises depuis la mémoire du CPU, vers celle du GPU. Que celui-ci effectue le calcul et qu'ensuite il renvoie la réponse de sa mémoire vers le CPU. Alors bien sur, on peut faire de gros calcul avec très peu de données transmisses. Par exemple, une intégrale triple d'une fonction entre des bornes, ne demande que le passage de quelques données et le résultat est un nombre de 4 ou de 8 bytes. Mais dans le cas de filtres appliqués à une vidéo, chaque point de chaque image passe 2x; une fois à l'aller, une fois au retour.
Bref, si on multiplie la taille de la mémoire GPU, à vitesse de bus égale, on calcule plus grand mais moins vite.
C'est la qu'intervient une idée (pas de moi qui remet au goût du jour, une technique longtemps décriée (à juste titre) : la mémoire partagée. Imaginez que l'image vidéo soit dans la mémoire CPU et qu'au lieu de la copier, le CPU dise au GPU, tient l'info est la, sers-toi et dis moi quand tu as fini. Et qu'en retour le GPU, une fois son calcul effectué rende la mémoire au CPU avec le résultat : ça serait un gain énorme.
Ne va-t-on pas dès lors, voir les système se spécialiser ? Partage de mémoire pour le GPGPU et au contraire mémoire séparée pour le rendu.
On est loin de ces préoccupation, mais remarquons qu'Apple a choisi de faire simple : une carte du Mac Pro pour le rendu, une pour le GPGPU (sauf si reprogrammation de la première en GPGPU). Par contre, pas moyen de faire du SLI.
bunios
21 janvier 2016 à 18:17
Vivement qu'ils sortent quelques choses d'enfin acceptables....tout simplement.
Sethenès
21 janvier 2016 à 19:57
@bunios : qu'as-tu de si négatif par rapport aux cartes graphiques actuelles ?
bunios
22 janvier 2016 à 00:26
@Sethenès
Le fait qu'Apple mets régulièrement des cartes graphiques (ou pas....
par exemple l'entrée de gamme MacBook Pro Rétina) de génération précédente. C'est quand même dommage.
A+
Sethenès
22 janvier 2016 à 00:34
Je crains que le mouvement soit irréversible. Je pense que la carte graphique dédiée restera l'apanage des gros MacBook Pro.
Déjà les Mac Mini et les iMac 21" sont équipés d'IRIS (j'avais même pas vu, je viens d'aller vérifier). Je suspecte qu'à terme, seul le gros 27" bénéficiera d'une carte graphique dédiée. Surtout qu'avec Skylake, les cartes graphiques devraient encore faire un bond.
Bref, il restera 3 machines Apple avec CG : gros MacBook, gros iMac et Mac Pro.
VanZoo
22 janvier 2016 à 09:46
Effectivement et malgré le plaisir de la fiche technique, cela convient à l'usage de la plupart des consommateurs