Aller au contenu

Apple M : le Miracle a-t-il des limites ?


Sethenès

Messages recommandés

Bonjour à tous,

Depuis longtemps je suis sceptique face aux processeurs ARM. Je ne reviendrai pas sur les questions de compatibilités et de standardisation, mais je rappellerai ce que je disais à propos des compétiteurs que sont Intel et AMD.

Autant, face au mur auquel Intel et AMD se frotte depuis des années et maintenant on peut presque le dire, une décennie, je pouvais comprendre que la technologie ARM puisse faire son retard, rattrape et même dépasse ses concurrents, autant je suis très sceptique sur ce qui va se passer "après".

D'autre part, mon expérience de plus de 30 ans aujourd'hui avec les puces Intel m'a montré qu'ils étaient pragmatiques. La technologie NetBurst était une voie de garage ? Qu'à cela ne tienne, ils sont repartis d'une feuille blanche avec la technologie Core. J'ai, par exemple, récemment appris qu'au sein des CPU Intel & AMD, les instructions CISC étaient et depuis un moment déjà converties en RISC avant d'être exécutées. Preuve là aussi, pour moi, d'une approche pragmatique.

Alors bon sang, pourquoi, alors qu'ils sont bloqués depuis près de 10 ans et que ARM comble le retard depuis à peu près aussi longtemps, pourquoi ne s'inspirent-ils pas d'ARM ? Et ici, il est question d'Intel mais aussi d'AMD bien sûr.

Mais revenons à ARM un moment. Evidemment la sortie d'une deuxième fournée de machine Apple M (M1+ ou M2, on verra) sera l'occasion de mesurer la marge de progression des puces M. Aussi, ai-je préparé une grille d'analyse que j'ai d'ailleurs soumis à la critique sur un autre forum.

Pour la concevoir, je suis, entre autre, parti des reculs observé entre les premiers Macs M et les versions précédentes et j'ai entre autre remarqué la disparition de certaines options : LAN 10 Gbe, support eGPU, etc. Cela a attiré mon attention sur un point qui pourrait être problématique dans l'approche SoC : la communication entre le SoC et le reste du monde.

Et voici la réponse qu'un intervenant a faite :

Citation

Pour moi, la force des SoC de Apple c'est une intégration incroyable, incluant la mémoire unifiée (ni copie ni conversion, cache L3 commun au travers du SLC), plus encore que les performances en valeur absolue de certaines unités.
Prendre un flux vidéo depuis la webcam, le faire traiter par le processeur d'image, analyser le résultat via la NPU puis utiliser la GPU pour faire un processing différent et plus complexe de l'image, pour qu'elle soit accessible à la CPU: là on utilise la symbiose des unités du SoC et le SLC pour obtenir des performances très au-dessus de sa catégorie, très au-dessus.
Cette conception est antagoniste de celle des Mac Pro, constitué d'éléments disparates de diverses provenance et échangeant au travers d'un bus.

Avant d'ajouter :

Citation

L'inconvénient corollaire c'est que passé les limites de la scalabilité du SoC, quand-même pas mal extensible, ça frappe un mur, et là où on rajouterait/upgraderait des GPU ou NPU, on ne pourra augmenter les performances.

En d'autres termes, on a ici résumé tant les forces de l'approche SoC que ses faiblesses et ses limites.

Ce que je comprends mieux dès lors, c'est que le gain de performance observé entre les puces ARM et les puces Intel ne résulte pas seulement de la puce en elle-même, mais aussi de l'approche SoC. Approche qui permet de se passer des standards de communications entre les composants du PC lui-même.

Il y a évidemment un tout petit bémol à l'exemple que l'intervenant a choisi, c'est qu'il est bien choisi pour que toute la communication se passe au niveau du SoC lui-même et profiter "à plein" de l'intégration.

Pour faire simple, si Apple sort un composant du SoC, tous les avantages liés à son intégration dans le SoC seront perdus.

Il faut donc bien séparer ces deux sources de gain de performance quand on compare des puces ARM dans un autre environnement que celui choisi à l'heure actuelle par Apple.

Je comprends aussi pourquoi Intel & AMD ne peuvent pas s'inspirer de ce modèle puisqu'il remet de facto toute la logique du PC en question.

J'avais d'ailleurs eu, un temps, la crainte que la mémoire 3D Point (Octane) ne tente Intel d'intégrer cette mémoire à la puce, tout comme elle avait déjà fait pour le Northbridge. Je ne sais plus si j'en avais parlé à l'époque.

Mais une chose est claire : pour garder les mêmes perf' que sur l'Apple M1, Apple doit intégrer autant de chose dans le SoC de ces autres machines que sur la M1.

Si je veux faire dans l'ironie : Apple n'aura même plus besoin de colle ni de soudure pour faire des machines fermées.

Il reste encore une question ouverte : quelles sont les possibilités d'évolution future ?

Pour les modèles à sortir, ils vont profiter du double effet ARM et SoC (avec en plus la possibilité pour Apple de multiplier les cœurs d'autant plus que ARM consomme peu). Par contre, pour la suite, je pense que le gain du passage au modèle SoC est un gain unique. Ne restera donc plus que les gains ARM d'une génération à l'autre.

Que conclure ?

Que cette approche est probablement adaptée à la grande majorité des clients Apple actuels. Ils vont bénéficier d'un gain de performance pour lequel il y a par ailleurs deux prix à payer.

Pour le premier, à savoir la perte des possibilités d'évolution, ils s'en satisferont probablement très bien puisque déjà ajd tout est collé sur un MBP. Il y a tout à parier que mêmes les iMacs haut de gamme suivront cette voie, sauf s'ils restent avec des processeurs Intel (comme l'un des trois modèle de Mac Mini actuel).

Pour le second prix à payer (la perte de compatibilité x86), tout dépend d'Apple en fait. Si le support OSX est étendu sur 8 à 10 ans, cela devrait leur convenir.

Et pour les autres clients ... soit ils feront comme moi, soit ils paieront le double prix. 

Source : Discussion

Modifié par Sethenès
Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 51
  • Créé
  • Dernière réponse

Top contributeurs dans ce sujet

il y a 3 minutes, MangezDesPommes a dit :

Super analyse, agréable à lire. Je penses qu'Apple garde le 10Gbe et le support eGPU pour la version Pro de leurs processeur.

Merci pour le retour :) !

Dès que ma grille d'analyse sera mûre, je la posterai ici également et effectivement, il est possible qu'Apple ai gardé des cartouches pour la différenciation entre modèles. De plus, ce sont des options assez dispensables. L'eGPU a fait couler beaucoup d'encre mais dans les faits je n'ai pas l'impression qu'elle ait vraiment conquis les foules.

Lien vers le commentaire
Partager sur d’autres sites

Très intéressante mise en perspective. 

C'est aussi l'éternel débat entre architecture ouverte ou fermée. 

Autant sur le créneau des ultra portables, typiquement les MBA et certains MBP, le pari semble déjà gagné, autant sur certaines machines fixes, typiquement le créneau du Mac Pro, le pari semble hasardeux. 

Les questions de réparabilité, d'extensibilité, d'évolutivité, d'interopérabilité, ... réapparaitront vite. 

Les logiciels pourraient aussi interférer et contraindre les uns ou les autres à des concessions. 

Les choix de Microsoft notamment, devront être observés avec attention. 

Lien vers le commentaire
Partager sur d’autres sites

Je réponds dans le texte :

Très intéressante mise en perspective. 

Merci.

C'est aussi l'éternel débat entre architecture ouverte ou fermée. Autant sur le créneau des ultra portables, typiquement les MBA et certains MBP, le pari semble déjà gagné, autant sur certaines machines fixes, typiquement le créneau du Mac Pro, le pari semble hasardeux. 

Je suis bien d'accord. D'autant plus qu'aujourd'hui, les ultra-portables sont en compétition avec les tablettes. Même si je trouve que les prix des tablettes et des iPhones sont totalement exagérés. On ne peut pas avoir raison seul, j'en suis bien conscient.

En espérant n'être pas mal compris, mais aujourd'hui le marché à 1000 euros est de facto un marché fermé. Mac Mini fermé, iPad fermé, MBA fermé, iPhone fermé. Autant et je l'ai plusieurs fois répété un MBA fermé, une tablette fermée ou un iPhone fermé me parait logique. Pour le Mini, c'est déjà nettement discutable (n'oublions pas qu'il n'intégré ni batterie, ni clavier, ni écran !).

Au fond, si on accepte d'acheter un Smartphone ou une tablette à 1000 euros, l'idée qu'une machine de 1000 euros soit également fermée ne choque plus.

Et là je ne peux que reconnaitre qu'Apple a fait très fort et qu'elle a réussi son pari. 

Les questions de réparabilité, d'extensibilité, d'évolutivité, d'interopérabilité, ... réapparaitront vite. 

Il faut probablement totalement séparer le marché Mac et le marché PC. Pour le marché Mac, les utilisateurs ont été conditionné depuis longtemps. Je vais être très dur, mais de recul en recul tout a été finalement accepté.

Et je suis bien content aujourd'hui, même si (et mes interventions tout au long de ses presque 10 ans sur le forum en sont la preuve) j'ai vraiment envisagé d'acquérir toutes les machines d'Apple sorties après 2014, d'être resté fidèle à mon idée première. Pour le Mac Mini 2018, j'ai vraiment hésité longtemps.

Les utilisateurs ont bien sûr changé également. Qui imagine encore aujourd'hui, acheter un Mac Mini et l'ouvrir dès l'achat pour ajouter de la RAM et surtout via un petit connecteur tiers acheté quelques euros, brancher un second disque ? Une petite poignée, mais qui le ferait vraiment ?

Objectivement, les 4 points que tu cites sont devenus très secondaire pour un acheteur de Mac.

Réparabilité ? Extensibilité ? Evolutivité ? Outre le Mac Pro (config raisonnable minimale : 11000 euros), il n'y a plus que le dernier Mac Mini Intel où la mémoire peut être remplacée et les iMacs où mémoire et disques peuvent l'être. Tout laisse à penser que les iMacs ARM rejoindront la liste des tout-collés. Il ne restera alors plus que le Mac Mini Intel et le Mac Pro.

Il n'y a que l'interopérabilité qui n'est pas vraiment un problème. Ou s'il l'était, les possesseurs de Macs ont un PC "à côté".

Par contre, effectivement, dans le monde PC, ces 4 questions ont encore une importance, même si je reconnais que là aussi, elles sont sur une légère pente descendante bien qu'ici, justement la plus importante est, je crois, l'interopérabilité.

Le monde PC est soutenu par toutes les entreprises dont les collaborateurs ont besoin d'un ordinateur personnel. Aujourd'hui, la connaissance de l'environnement informatique (Windows + Excel & cie) est considérée à l'égal de la maitrise d'une langue étrangère tel que l'anglais. Cela constitue, à mon sens, une des plus grandes inerties que connait le PC et qui fera que pendant longtemps encore aucune alternative ne sera crédible sans support tant de Windows que d'Excel (et de la suite office en général bien sûr).

Je ne sais pas si on peut mesurer à quel point la connaissance approfondie d'Excel est importante aujourd'hui dans les grandes sociétés (je veux dire pour des personnes qui n'y ont jamais travaillé). Je ne citerai qu'un seul exemple : les pivots-tables d'Excel qui permettent de faire de véritables requêtes semblables à ce que la maitrise des requêtes SQL dans le monde des bases de données peut offrir (option de type "Group By" pour ceux qui maitriseraient le SQL).

Windows ARM répond bien sûr à toutes ces conditions sauf ... qu'il faut que des PCs Windows-ARM soient vendus (et supportés) par des fournisseurs qui ont les rein assez solides. De plus, il faut que les services informatiques internes s'adaptent aux PCs ARM. Et enfin surtout que les PCs ARM soient compatibles d'un fournisseur à l'autre car il arrive que des grands comptes changent de fournisseur. Ils ne sont pas stupides et ils n'ont pas oublié l'époque où ils étaient captifs d'un seul fournisseur ...

Le client du Mac est un client riche. J'ai des amis qui ont été Mac dans l'âme depuis presque le début mais qui ne peuvent plus suivre. 4 Smartphones + 4 ordis made in Apple, c'est impossible même avec 2 salaires décents et même en récupérant les anciens des uns pour donner aux autres.

Je peux me tromper mais je pense qu'il y a quand même une sur-représentativité parmi les clients (et même les membres de ce forum) d'hommes célibataires ou à la limite en couple, mais ceux avec des enfants sont l'exception.

Cette aisance financière permet également d'envisager plus facilement de changer de machine plutôt que de la reconditionner. Je pense qu'un père de famille (visions un peu d'une autre époque, je l'assume) aura ces préoccupations à l'esprit puisque concomitamment à l'achat d'une nouvelle machine, il s'apprête probablement à reconditionner la machine que cet achat va remplacer afin d'en faire profiter un autre membre de la famille.

Les logiciels pourraient aussi interférer et contraindre les uns ou les autres à des concessions. 

Le penses-tu ? Que reste-t-il comme soft qui pourrait vraiment forcer les uns et les autres ? Les softs d'Apple sont propriétaires. Pour ceux du monde PC portés sur Apple, il y a quand même une diminution constante du nombre. Avec dans certains cas, des phénomènes surprenant où un produit qui était à l'origine disponible uniquement sur Mac ne l'est plus aujourd'hui que sur PC (un soft bien connu de comptabilité de mémoire).

Les choix de Microsoft notamment, devront être observés avec attention. 

Ce que Microsoft aurait pu faire, et depuis longtemps, c'est d'offrir exactement la même expérience sur Apple que sur PC (je pense évidemment à la suite Office). Mon expérience d'Office sur Mac ne m'a pas éblouie. C'est plus que probablement fait exprès bien sûr.

Microsoft offre Windows pour ARM aux fabricants de machine. A eux de réaliser l'installateur puisqu'il n'y a pas de standard ARM. Apple n'est visiblement pas pressée. Et même si un jour il y a un standard PC-ARM, il sera différent du Mac-ARM. Que fera Apple à ce moment là ?

Est-il crédible de penser qu'Apple suivra alors le standard PC-ARM pour ses Mac-ARM ? Poser la question, c'est, je crois, y répondre.

Lien vers le commentaire
Partager sur d’autres sites

Un copier/coller de la grille telle qu'elle était "avant" la discussion. Car au fond, c'était justement l'exercice, de penser une grille d'analyse "avant" la sortie des puces M1+/M2, de manière à être le plus objectif possible.

Evidemment, la discussion répond déjà à certaines interrogations ... 

Ce que j'analyserai, ce sera :

- Le différentiel de puissance à nombre égal de cœur, ce qui devrait donner une idée de la marge dont dispose la technologie ARM (évidemment croisé avec d'autres données : fréquence, consommation). Analyse à réaliser tant pour le CPU que pour le GPU, il va sans dire.

- L'évolution dans l'intégration des composants. C'est l'une des question ouverte. Le concept d'Apple est-il mûr ou au contraire, va-t-il encore évoluer significativement à court terme (avec évidemment en ligne de mire, la vitesse d'obsolescence des premiers modèles sortis).

- La communication entre le "SOC" et le reste du monde. Pour le moment, il y a quand même eu un sérieux coup de frein de ce côté : pas de GPU dédié, pas d'eGPU, perte de l'option réseau 10 Gbit/s sur le Mac Mini. Alors je suis d'accord pour dire que ces options sont pour certaines très dispensables, mais comme il s'agit d'une régression, la question peut être posée. Vont-ils étendre les échanges avec le SOC ou pas, vont-ils sortir certains composants comme le GPU par exemple ?

- Y aura-t-il encore la possibilité de modifier la mémoire ou le SSD (en particulier sur les iMacs les plus haut de gamme).

- Quel sera le reliquat de machines non migrées vers ARM (je pense par exemple au Mac Mini i5 qui est toujours au catalogue) et si possible d'essayer d'en comprendre la raison.

Source : https://forum.macbidouille.com/index.php?s=&showtopic=420072&view=findpost&p=4376534

Lien vers le commentaire
Partager sur d’autres sites

(complément à l'analyse) :

- Est-ce que le ratio performance / coût restera le même ?

Je m'explique. Apple a marqué les esprits avec une approche très intéressante en terme de perfomance / Watts mais en même temps, elle a été très raisonnable sur l'aspect financier. Maintenant que les esprits sont conquis, Apple va-t-elle restée aussi généreuse ou au contraire va-t-elle progressivement remonter les prix ?

Lien vers le commentaire
Partager sur d’autres sites

J'apporte une précision pour la première axe d'analyse. L'un des éléments clé sera la performance mono-cœur bien sûr. C'est son évolution, compte-tenu des variations éventuelles de fréquences et de consommation qui seront, pour moi en tout cas, vu comme un indicateur de ce que cette technologie a comme potentiel futur.

Un exemple concret : si la performance mono-cœur gagne 20% mais que la fréquence est 20% plus élevée, de même que la consommation, cela montre simplement le potentiel de la génération 1 de la puce. Le gain, entre les versions 1 et 1+ ou 2 se mesureront au contraire en neutralisant les effets de fréquences et (dans une moindre mesure certes) de consommations.

Lien vers le commentaire
Partager sur d’autres sites

  • 4 weeks later...
  • 5 months later...

Petit up ... ma grille est prête pour la Keynote de lundi ...

Si le M1X est bien au rendez-vous, les points clés (en plus de ceux des posts précédents) sont évidents :

- gain en performance CPU en monocœur par rapport au M1 (avec prise en compte des effets de fréquence et de conso)

- étude des benchs qui devraient intégrer les modifications apportées pour cette fameuse histoire de SSD (y a-t-il un impact à la baisse sur les performances, oui ou non)

- performance GPU (comparaison fine des options 16 et 32 "cœurs" avec la configuration du M1)

Le tout évidemment en se rappelant que les premiers Macs M1 ont été mis sur le marché il y a 10 mois. Cela nous donnera une première idée de ce que Apple a pu gratter comme réelle augmentation de performance en "pratiquement" une année - même si - je suis le premier à reconnaitre qu'il faudra attendre la puce M2 pour avoir une vision globale.

Et quand je dis réelle, je ne parle évidemment pas de la "multiplication des cores" à la Intel !

Lien vers le commentaire
Partager sur d’autres sites

Je doute que la puce M2 soit plus performante que la M1X.
Pour moi, Apple va faire comme avec les iPhone et iPad avant l'arrivée de la M1 :

Les versions non X pour les iPhone et les versions X pour les machines Pro avec plus de puissance.
L'année d'après la version non X +1 sera inférieure en perf ou s'approchant des performances de la X et la version X +1 sera elle plus performante que la non X +1 et que la X.

Je pense que dans un futur à moyen terme, les iPhone aussi auront une M quelques chose, et les iPad Pro passeront en M-quelques-chose-X.
Par exemple, iPhone 15 M3 et iPad Pro 2023 M3X.

Je pense en effet qu'Apple va essayer de réutiliser au maximum ses puces tout en segmentant les gammes Pro et les gammes plus grand public.
Il n'est pas impossible qu'Apple garde aussi les machines précédente avec des M2 et M2X par exemple, en entrée de gamme quand les machines M3 et M3X seront dispo.

Donc à terme on risque d'avoir des iPhone M2, M3, M4 au catalogue en même temps mais sorti à chaque fois avec une année d'intervalle.
Pareil pour les iPad... et les Mac.

En tous cas, les 2 ou 3 années à venir risquent d'être « passionnantes » à ce niveau, et c'est pendant cette période qu'on verra vraiment où va Apple, un peu avant 3 ans même probablement.

Modifié par LolYangccool
Lien vers le commentaire
Partager sur d’autres sites

Mon point de vue sur l'Apple Silicon n'a pas changé(mais il pourrait évoluer après les news de lundi, même si j'en doute).

La version M1 surpassait ses concurrents en terme de performance mono-cœur. Mais les concurrents ne restent pas les bras croisés.

Intel devrait annoncer ses CPUs 12ème génération, CPU qui nécessiteront Windows 11 afin d'exploiter les cœurs "mixtes" ... (apparemment Windows 10 ne supporterait pas cette fonctionnalité). 

La question des perfs de la M2 est donc d'importance pour voir si Apple parvient à garder son avance.

D'autre part, au plus la M1X sera proche de la M1, au plus (je crains que) sa durée de vie soit courte.

Tu l'as vu avec ton portable (tout comme moi avec la puce 5930k). Ma puce a beau être dispo "seulement" depuis le Q3 2014, la technologie Haswell est sortie au Q2 2013 ! Alors qu'au Q3 2014 les premiers Broadwell étaient annoncés, mais ceux pour ultraportable.

Lien vers le commentaire
Partager sur d’autres sites

Attends je m'en étais pas rendu compte.
Ca veut dire que le i5 4460 de mon PC fixe acheté en avril 2015 avait pas un CPU récent ?
Incroyable, je ne m'en était même pas rendu compte, mon CPU acheté neuf datait de 2013 alors que ma config a été acheté 2 ans plus tard ?
Je me suis fait avoir sur ce coup-là alors. :o

Par contre, Intel n'est pas Apple et inversement.
Les M1 Pro et M1 Max (puisque c'est ça leurs vraies nom semble t'il, Pro pour 16 coeurs GPU, Max pour 32 coeurs GPU) seront forcément proche de la M1, à mon avis il y aura « juste » une multiplication des coeurs, et une fréquence peut-être en hausse.
Cependant ça ne veut pas dire que la durée de vie sera moindre qu'une M2 ou M1.
J'espère bien qu'Apple va pas nous faire le coup de Microsoft avec Windows 11 (je l'ai toujours pas digéré) dans quelques années.
Y'a déjà plein de gens qui disent que W11 est le Me ou le Vista de 2021.
Un bon OS, un mauvais OS...

Modifié par LolYangccool
Lien vers le commentaire
Partager sur d’autres sites

Il me semble assez logique que lorsque les machines équipées de puces M1 ne seront plus supportées, les M1X suivront le même chemin.

Pour l'autre question, c'était quand même largement connu qu'Intel sortait d'abord les versions pour ultraportable (<10 W) et puis quelques mois plus tard les puces un peu plus costaudes (<30 Watts) et ainsi de suite.

Regarde les toutes dernières puces annoncées en juillet de cette année pour le Mac Pro, ce sont des Xeon Ice Lake. Les premiers CPU Ice Lake datent de septembre 2019, soit il y a 2 ans. Ice Lake, c'est la 10ème génération, la 12ème est attendue pour la fin de ce mois.

Ici, le M1X sortira 10 mois après la M1, mais quelque part, le M1X, c'est l'équivalent des CPU du MBP. Intel doit sortir les puces MBP avec à peu près le même délai par rapport aux puces pour ultraportable.

Et au fond, c'est logique. Les puces plus puissantes chauffent beaucoup plus. Elles profitent de la maturité des chaines de production. C'est aussi beaucoup plus rentable puisque ce sont les mêmes usines qui fabriquent successivement les CPUs de même génération (mais destinés à des usages différents). Mais fondamentalement, les finesses sont conservées, les technologies, etc.

Lien vers le commentaire
Partager sur d’autres sites

On verra. La date d'arrêt de support dépendra aussi de la date de fin de commercialisation des machines concernées, je pense.

Pour moi les M1 Pro et Max seront forcément plus performantes que les M2 si on suit la logique d'Apple avec ses puces AX.
Du coup, ça me semble compliqué pour Apple de justifier qu'une puce M1 Pro/Max aient une durée de vie moindre qu'une M2, sauf s'il y a vraiment des fonctionnalités indispensables pour les OS à venir dans la M2. Oui Microsoft, j'ai bien dit indispensables, hein, pas comme les fonctionnalités prérequises pour W11 qui ne le sont pas du tout. :P

Modifié par LolYangccool
Lien vers le commentaire
Partager sur d’autres sites

Bah ... regarde mon iMac qui faire tourner des jeux sous Windows qui ne le peuvent plus sous OSX car Apple a décidé qu'il n'était pas compatible Metal.

Pour le reste, c'est facile. Analyse la liste des machines qui sortent du support OSX à chaque nouvelle version, ou compare sur les iPhones / iPad si parfois des puces X sont supportées plus longtemps que leurs parents "non-X".

Je reconnais que Microsoft a fait fort. Mais à ce jeu là, ils sont loin d'être les champions !

Lien vers le commentaire
Partager sur d’autres sites

  • 3 months later...

Je profite de ce sujet pour commenter les récents tests des CPU Intel. Pour moi, ces tests apportent plus de questions que de réponses.

Jusqu'il y a deux ans environ, Intel n'a pas été capable de dépasser la barre des 1600 en monocoeur. La sortie du M1, avec en gros des performances supérieures de 10% (pour un résultat aux environs de 1760) n'est donc pas passée inaperçue. Aujourd'hui, Intel propose enfin des PCs qui dépassent les 1800. Aussi, je me pose plusieurs questions :

1/ Les performances monocoeur annoncées le sont pour des monstres de puissances. Qu'en sera-t-il dès lors sur les puces i7, mais "d'entrée de gamme" (voire même les i5) ? Ces méga-puces choisies pour les benchs sont naturellement refroidies par des systèmes extrêmement efficace (radiateurs proéminent, water-cooling, ...), dans quelle mesure un refroidissement plus contenu permettra malgré tout d'atteindre de bonnes performances monocoeur. 

2/ Les "nouvelles" technologies mises en place par Intel sont-elles les seules responsables de ce nouvel état de fait ? Corollaire évident, d'où vient ce soudain surcroit de puissance ?  Au contraire, Intel a-t-elle du revoir ces choix pour "suroptimiser" les performances monocoeur, au détriment d'autres aspects ? Il y a une troisième option qui voudrait qu'Intel ne se soit pas trop souciée de ces performances, mais je reste sceptique.

3/ Avec évidemment "la" question qui fâche : est-ce qu'Intel en a encore le sous le pied pour des évolutions futures ?

Evidemment, ces puces qui ont rattrapées et dépassées toutes les puces M1 en performance monocoeur m'amène à questionner Apple :

1/ Tout d'abord, une première constatation : qui n'avance pas ... recule. A ce sujet, remarquons en particulier que les performances monocoeur des M1, M1 Pro et M1 Max sont identiques.

2/ Et même question pour Apple que pour Intel : est-ce qu'Apple en a encore sous le pied pour des évolutions futures ?

Lien vers le commentaire
Partager sur d’autres sites

Aujourd’hui pour surperformer un M1 Max dans un usage polyvalent il faut aussi associer une puissante carte GPU, augmentant encore les contraintes thermiques.

L’évolution des performances en monocœur sera en effet un point important à observer, dans un cadre d’utilisations qui pourrait s’élargir ou se rétrécir. 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, LolYangccool a dit :

Intel a volontairement bridé ses CPU, ou du moins limité les évolutions par défaut de concurrence pendant des années !
La voilà la raison. Pourquoi s'embêter à progresser quand on a un monopole ? Ca fait de la R&D et donc des dépenses en moins.

Je sais que c'est ce que tu penses sur le caractère volontaire d'Intel. Mais reconnais-le, cela reste de la spéculation. Attention, mes propos sont également spéculatifs, mais ici c'est surtout l'avenir qui nous le dira.

Intel avait quand même AMD comme concurrent, AMD qui parvenait à tailler des croupières à Intel dans certains segments.

Il y a 1 heure, Fred4 a dit :

Aujourd’hui pour surperformer un M1 Max dans un usage polyvalent il faut aussi associer une puissante carte GPU, augmentant encore les contraintes thermiques.

L’évolution des performances en monocœur sera en effet un point important à observer, dans un cadre d’utilisations qui pourrait s’élargir ou se rétrécir. 

C'est exact. Ceci dit, je nuancerais quand même le propos. Le MBP Pro M1 Max est à 3849 euros. Pour ce prix là, chez Dell tu as un Alienware avec une RTX 3080 mobile qui offre pratiquement le double de performance par rapport au GPU du M1 Max (18,98 vs 10,26).

Sources :
https://www.techpowerup.com/gpu-specs/geforce-rtx-3080-mobile.c3684
https://appleinsider.com/articles/21/10/19/m1-pro-and-m1-max-gpu-performance-versus-nvidia-and-amd#:~:text=The 16-core GPU in,5500 in terms of performance.&text=Against game consoles%2C the 32,of up to 12 teraflops.
https://www.dell.com/fr-be/work/shop/ordinateurs-br-portables/sr/laptops/ordinateur-portable?appliedRefinements=31461,15604,15605,11832,6105

Mais effectivement, on n'est pas dans les mêmes gammes de consommation, clairement.
 Par contre pour le M1 de base, il existait déjà un an avant sa sortie des GPU (AMD, j'insiste) qui était leur équivalent et qui aurait par exemple pu équiper le Mac Mini 2018. 

Enfin, il faut savoir qu'Intel a annoncé (en principe pour ce trimestre) la sortie de nouvelles générations de GPU. Bien sûr tant que rien n'est sorti, il faut rester prudent mais si les prévisions "moyennes" sont rencontrées par ces cartes, cela pourrait bouleverser la donne. Bien sûr, outre la puissance (et le rapport performance / Watts), c'est surtout le pricing qu'il faudra analyser (ou pas, s'ils fument la moquette).

Lien vers le commentaire
Partager sur d’autres sites

@Sethenès Non Intel n'avait aucun concurrent avant l'arrivée des premiers Ryzen. AMD est resté silencieux pendant de nombreuses années.
Oui c'est de la spéculation, le caractère volontaire d'Intel, mais avoue quand même qu'il est bizarre que, comme par hasard, Intel a fait progresser ses CPU au moment où AMD s'est réveillé avec les Ryzen, et encore plus actuellement avec l'arrivée des M1, M1 Pro et M1 Max.
La coïcidence est quand même très curieuse, il faut l'avouer.

Je suis persuadé qu'Intel s'est vraiment reposé en limitant la progression et l'innovation volontairement.
C'est d'ailleurs pour ça qu'ils sont à la traine maintenant, avec Apple, mais aussi AMD, qui les dépasse régulièrement, même si c'est un peu le jeu du chat et de la souris entre AMD et Intel. Sur une gen Intel est devant AMD, sur la suivante c'est l'inverse...
Ils ont énormément de retard sur l'x86 par rapport à ARM, la consommation des CPU Intel est bien plus importante à performances égales, que les Apple Silicon.

C'est pour ça que j'ai une dent envers Intel : Parce qu'ils ont délibérément empêché toute innovation, et toute progression du secteur informatique en n'améliorant que trop lentement leurs CPU, par rapport à ce qu'ils auraient pu réellement faire s'ils s'étaient bougés un peu plus.

Je suis par contre curieux de voir ce qu'ils vont faire avec leurs premiers GPU.

Sethenès, tu parles d'un Alienware avec RTX 3080 mobile... Ok, c'est plus puissant, mais quid de la conso par rapport à une M1 Max (vraie question) ?
Ca doit pas être loin du simple au double voir triple à minima (en prenant CPU + GPU sur l'alienware puisque la M1 Max inclut les deux).

Modifié par LolYangccool
Lien vers le commentaire
Partager sur d’autres sites

Il y a 11 heures, LolYangccool a dit :

Je suis persuadé qu'Intel s'est vraiment reposé en limitant la progression et l'innovation volontairement.

Ce n'est pas une "volonté" explicite. C'est juste que quand tu n'as pas de concurrence significative la tentation est grande de réduire les investissements en R&D. Ca marche un temps, mais à long terme ça se paye. Par ailleurs il est arrivé à Intel un truc classique : les profils financiers ont fini par occuper tous les postes importants au détriment des profils techniques, donc non seulement ils ont pu valider facilement la politique de réduction des investissements, mais ils n'ont aucune vision stratégique sur l'évolution des technologies.

Après, je pense que Intel se traîne l'architecture x86 comme un boulet. Mais leurs clients ont été très frileux aussi pendant longtemps, préférant privilégier la compatibilité à l'existant plutôt que des transitions toujours difficiles. Quand Intel a tenté l'architecture 64 Itanium qui rompait avec le x86, le marché a préféré la voie d'AMD avec le x86_64 qui maintenait la compatibilité, et Intel a dû suivre.

Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement



×
×
  • Créer...