Jump to content

Apple M : le Miracle a-t-il des limites ?


Recommended Posts

Bonjour à tous,

Depuis longtemps je suis sceptique face aux processeurs ARM. Je ne reviendrai pas sur les questions de compatibilités et de standardisation, mais je rappellerai ce que je disais à propos des compétiteurs que sont Intel et AMD.

Autant, face au mur auquel Intel et AMD se frotte depuis des années et maintenant on peut presque le dire, une décennie, je pouvais comprendre que la technologie ARM puisse faire son retard, rattrape et même dépasse ses concurrents, autant je suis très sceptique sur ce qui va se passer "après".

D'autre part, mon expérience de plus de 30 ans aujourd'hui avec les puces Intel m'a montré qu'ils étaient pragmatiques. La technologie NetBurst était une voie de garage ? Qu'à cela ne tienne, ils sont repartis d'une feuille blanche avec la technologie Core. J'ai, par exemple, récemment appris qu'au sein des CPU Intel & AMD, les instructions CISC étaient et depuis un moment déjà converties en RISC avant d'être exécutées. Preuve là aussi, pour moi, d'une approche pragmatique.

Alors bon sang, pourquoi, alors qu'ils sont bloqués depuis près de 10 ans et que ARM comble le retard depuis à peu près aussi longtemps, pourquoi ne s'inspirent-ils pas d'ARM ? Et ici, il est question d'Intel mais aussi d'AMD bien sûr.

Mais revenons à ARM un moment. Evidemment la sortie d'une deuxième fournée de machine Apple M (M1+ ou M2, on verra) sera l'occasion de mesurer la marge de progression des puces M. Aussi, ai-je préparé une grille d'analyse que j'ai d'ailleurs soumis à la critique sur un autre forum.

Pour la concevoir, je suis, entre autre, parti des reculs observé entre les premiers Macs M et les versions précédentes et j'ai entre autre remarqué la disparition de certaines options : LAN 10 Gbe, support eGPU, etc. Cela a attiré mon attention sur un point qui pourrait être problématique dans l'approche SoC : la communication entre le SoC et le reste du monde.

Et voici la réponse qu'un intervenant a faite :

Citation

Pour moi, la force des SoC de Apple c'est une intégration incroyable, incluant la mémoire unifiée (ni copie ni conversion, cache L3 commun au travers du SLC), plus encore que les performances en valeur absolue de certaines unités.
Prendre un flux vidéo depuis la webcam, le faire traiter par le processeur d'image, analyser le résultat via la NPU puis utiliser la GPU pour faire un processing différent et plus complexe de l'image, pour qu'elle soit accessible à la CPU: là on utilise la symbiose des unités du SoC et le SLC pour obtenir des performances très au-dessus de sa catégorie, très au-dessus.
Cette conception est antagoniste de celle des Mac Pro, constitué d'éléments disparates de diverses provenance et échangeant au travers d'un bus.

Avant d'ajouter :

Citation

L'inconvénient corollaire c'est que passé les limites de la scalabilité du SoC, quand-même pas mal extensible, ça frappe un mur, et là où on rajouterait/upgraderait des GPU ou NPU, on ne pourra augmenter les performances.

En d'autres termes, on a ici résumé tant les forces de l'approche SoC que ses faiblesses et ses limites.

Ce que je comprends mieux dès lors, c'est que le gain de performance observé entre les puces ARM et les puces Intel ne résulte pas seulement de la puce en elle-même, mais aussi de l'approche SoC. Approche qui permet de se passer des standards de communications entre les composants du PC lui-même.

Il y a évidemment un tout petit bémol à l'exemple que l'intervenant a choisi, c'est qu'il est bien choisi pour que toute la communication se passe au niveau du SoC lui-même et profiter "à plein" de l'intégration.

Pour faire simple, si Apple sort un composant du SoC, tous les avantages liés à son intégration dans le SoC seront perdus.

Il faut donc bien séparer ces deux sources de gain de performance quand on compare des puces ARM dans un autre environnement que celui choisi à l'heure actuelle par Apple.

Je comprends aussi pourquoi Intel & AMD ne peuvent pas s'inspirer de ce modèle puisqu'il remet de facto toute la logique du PC en question.

J'avais d'ailleurs eu, un temps, la crainte que la mémoire 3D Point (Octane) ne tente Intel d'intégrer cette mémoire à la puce, tout comme elle avait déjà fait pour le Northbridge. Je ne sais plus si j'en avais parlé à l'époque.

Mais une chose est claire : pour garder les mêmes perf' que sur l'Apple M1, Apple doit intégrer autant de chose dans le SoC de ces autres machines que sur la M1.

Si je veux faire dans l'ironie : Apple n'aura même plus besoin de colle ni de soudure pour faire des machines fermées.

Il reste encore une question ouverte : quelles sont les possibilités d'évolution future ?

Pour les modèles à sortir, ils vont profiter du double effet ARM et SoC (avec en plus la possibilité pour Apple de multiplier les cœurs d'autant plus que ARM consomme peu). Par contre, pour la suite, je pense que le gain du passage au modèle SoC est un gain unique. Ne restera donc plus que les gains ARM d'une génération à l'autre.

Que conclure ?

Que cette approche est probablement adaptée à la grande majorité des clients Apple actuels. Ils vont bénéficier d'un gain de performance pour lequel il y a par ailleurs deux prix à payer.

Pour le premier, à savoir la perte des possibilités d'évolution, ils s'en satisferont probablement très bien puisque déjà ajd tout est collé sur un MBP. Il y a tout à parier que mêmes les iMacs haut de gamme suivront cette voie, sauf s'ils restent avec des processeurs Intel (comme l'un des trois modèle de Mac Mini actuel).

Pour le second prix à payer (la perte de compatibilité x86), tout dépend d'Apple en fait. Si le support OSX est étendu sur 8 à 10 ans, cela devrait leur convenir.

Et pour les autres clients ... soit ils feront comme moi, soit ils paieront le double prix. 

Source : Discussion

Edited by Sethenès
Link to post
Share on other sites

Super analyse, agréable à lire. Je penses qu'Apple garde le 10Gbe et le support eGPU pour la version Pro de leurs processeur.

Link to post
Share on other sites
il y a 3 minutes, MangezDesPommes a dit :

Super analyse, agréable à lire. Je penses qu'Apple garde le 10Gbe et le support eGPU pour la version Pro de leurs processeur.

Merci pour le retour :) !

Dès que ma grille d'analyse sera mûre, je la posterai ici également et effectivement, il est possible qu'Apple ai gardé des cartouches pour la différenciation entre modèles. De plus, ce sont des options assez dispensables. L'eGPU a fait couler beaucoup d'encre mais dans les faits je n'ai pas l'impression qu'elle ait vraiment conquis les foules.

Link to post
Share on other sites

Très intéressante mise en perspective. 

C'est aussi l'éternel débat entre architecture ouverte ou fermée. 

Autant sur le créneau des ultra portables, typiquement les MBA et certains MBP, le pari semble déjà gagné, autant sur certaines machines fixes, typiquement le créneau du Mac Pro, le pari semble hasardeux. 

Les questions de réparabilité, d'extensibilité, d'évolutivité, d'interopérabilité, ... réapparaitront vite. 

Les logiciels pourraient aussi interférer et contraindre les uns ou les autres à des concessions. 

Les choix de Microsoft notamment, devront être observés avec attention. 

Link to post
Share on other sites

Je réponds dans le texte :

Très intéressante mise en perspective. 

Merci.

C'est aussi l'éternel débat entre architecture ouverte ou fermée. Autant sur le créneau des ultra portables, typiquement les MBA et certains MBP, le pari semble déjà gagné, autant sur certaines machines fixes, typiquement le créneau du Mac Pro, le pari semble hasardeux. 

Je suis bien d'accord. D'autant plus qu'aujourd'hui, les ultra-portables sont en compétition avec les tablettes. Même si je trouve que les prix des tablettes et des iPhones sont totalement exagérés. On ne peut pas avoir raison seul, j'en suis bien conscient.

En espérant n'être pas mal compris, mais aujourd'hui le marché à 1000 euros est de facto un marché fermé. Mac Mini fermé, iPad fermé, MBA fermé, iPhone fermé. Autant et je l'ai plusieurs fois répété un MBA fermé, une tablette fermée ou un iPhone fermé me parait logique. Pour le Mini, c'est déjà nettement discutable (n'oublions pas qu'il n'intégré ni batterie, ni clavier, ni écran !).

Au fond, si on accepte d'acheter un Smartphone ou une tablette à 1000 euros, l'idée qu'une machine de 1000 euros soit également fermée ne choque plus.

Et là je ne peux que reconnaitre qu'Apple a fait très fort et qu'elle a réussi son pari. 

Les questions de réparabilité, d'extensibilité, d'évolutivité, d'interopérabilité, ... réapparaitront vite. 

Il faut probablement totalement séparer le marché Mac et le marché PC. Pour le marché Mac, les utilisateurs ont été conditionné depuis longtemps. Je vais être très dur, mais de recul en recul tout a été finalement accepté.

Et je suis bien content aujourd'hui, même si (et mes interventions tout au long de ses presque 10 ans sur le forum en sont la preuve) j'ai vraiment envisagé d'acquérir toutes les machines d'Apple sorties après 2014, d'être resté fidèle à mon idée première. Pour le Mac Mini 2018, j'ai vraiment hésité longtemps.

Les utilisateurs ont bien sûr changé également. Qui imagine encore aujourd'hui, acheter un Mac Mini et l'ouvrir dès l'achat pour ajouter de la RAM et surtout via un petit connecteur tiers acheté quelques euros, brancher un second disque ? Une petite poignée, mais qui le ferait vraiment ?

Objectivement, les 4 points que tu cites sont devenus très secondaire pour un acheteur de Mac.

Réparabilité ? Extensibilité ? Evolutivité ? Outre le Mac Pro (config raisonnable minimale : 11000 euros), il n'y a plus que le dernier Mac Mini Intel où la mémoire peut être remplacée et les iMacs où mémoire et disques peuvent l'être. Tout laisse à penser que les iMacs ARM rejoindront la liste des tout-collés. Il ne restera alors plus que le Mac Mini Intel et le Mac Pro.

Il n'y a que l'interopérabilité qui n'est pas vraiment un problème. Ou s'il l'était, les possesseurs de Macs ont un PC "à côté".

Par contre, effectivement, dans le monde PC, ces 4 questions ont encore une importance, même si je reconnais que là aussi, elles sont sur une légère pente descendante bien qu'ici, justement la plus importante est, je crois, l'interopérabilité.

Le monde PC est soutenu par toutes les entreprises dont les collaborateurs ont besoin d'un ordinateur personnel. Aujourd'hui, la connaissance de l'environnement informatique (Windows + Excel & cie) est considérée à l'égal de la maitrise d'une langue étrangère tel que l'anglais. Cela constitue, à mon sens, une des plus grandes inerties que connait le PC et qui fera que pendant longtemps encore aucune alternative ne sera crédible sans support tant de Windows que d'Excel (et de la suite office en général bien sûr).

Je ne sais pas si on peut mesurer à quel point la connaissance approfondie d'Excel est importante aujourd'hui dans les grandes sociétés (je veux dire pour des personnes qui n'y ont jamais travaillé). Je ne citerai qu'un seul exemple : les pivots-tables d'Excel qui permettent de faire de véritables requêtes semblables à ce que la maitrise des requêtes SQL dans le monde des bases de données peut offrir (option de type "Group By" pour ceux qui maitriseraient le SQL).

Windows ARM répond bien sûr à toutes ces conditions sauf ... qu'il faut que des PCs Windows-ARM soient vendus (et supportés) par des fournisseurs qui ont les rein assez solides. De plus, il faut que les services informatiques internes s'adaptent aux PCs ARM. Et enfin surtout que les PCs ARM soient compatibles d'un fournisseur à l'autre car il arrive que des grands comptes changent de fournisseur. Ils ne sont pas stupides et ils n'ont pas oublié l'époque où ils étaient captifs d'un seul fournisseur ...

Le client du Mac est un client riche. J'ai des amis qui ont été Mac dans l'âme depuis presque le début mais qui ne peuvent plus suivre. 4 Smartphones + 4 ordis made in Apple, c'est impossible même avec 2 salaires décents et même en récupérant les anciens des uns pour donner aux autres.

Je peux me tromper mais je pense qu'il y a quand même une sur-représentativité parmi les clients (et même les membres de ce forum) d'hommes célibataires ou à la limite en couple, mais ceux avec des enfants sont l'exception.

Cette aisance financière permet également d'envisager plus facilement de changer de machine plutôt que de la reconditionner. Je pense qu'un père de famille (visions un peu d'une autre époque, je l'assume) aura ces préoccupations à l'esprit puisque concomitamment à l'achat d'une nouvelle machine, il s'apprête probablement à reconditionner la machine que cet achat va remplacer afin d'en faire profiter un autre membre de la famille.

Les logiciels pourraient aussi interférer et contraindre les uns ou les autres à des concessions. 

Le penses-tu ? Que reste-t-il comme soft qui pourrait vraiment forcer les uns et les autres ? Les softs d'Apple sont propriétaires. Pour ceux du monde PC portés sur Apple, il y a quand même une diminution constante du nombre. Avec dans certains cas, des phénomènes surprenant où un produit qui était à l'origine disponible uniquement sur Mac ne l'est plus aujourd'hui que sur PC (un soft bien connu de comptabilité de mémoire).

Les choix de Microsoft notamment, devront être observés avec attention. 

Ce que Microsoft aurait pu faire, et depuis longtemps, c'est d'offrir exactement la même expérience sur Apple que sur PC (je pense évidemment à la suite Office). Mon expérience d'Office sur Mac ne m'a pas éblouie. C'est plus que probablement fait exprès bien sûr.

Microsoft offre Windows pour ARM aux fabricants de machine. A eux de réaliser l'installateur puisqu'il n'y a pas de standard ARM. Apple n'est visiblement pas pressée. Et même si un jour il y a un standard PC-ARM, il sera différent du Mac-ARM. Que fera Apple à ce moment là ?

Est-il crédible de penser qu'Apple suivra alors le standard PC-ARM pour ses Mac-ARM ? Poser la question, c'est, je crois, y répondre.

Link to post
Share on other sites

Un copier/coller de la grille telle qu'elle était "avant" la discussion. Car au fond, c'était justement l'exercice, de penser une grille d'analyse "avant" la sortie des puces M1+/M2, de manière à être le plus objectif possible.

Evidemment, la discussion répond déjà à certaines interrogations ... 

Ce que j'analyserai, ce sera :

- Le différentiel de puissance à nombre égal de cœur, ce qui devrait donner une idée de la marge dont dispose la technologie ARM (évidemment croisé avec d'autres données : fréquence, consommation). Analyse à réaliser tant pour le CPU que pour le GPU, il va sans dire.

- L'évolution dans l'intégration des composants. C'est l'une des question ouverte. Le concept d'Apple est-il mûr ou au contraire, va-t-il encore évoluer significativement à court terme (avec évidemment en ligne de mire, la vitesse d'obsolescence des premiers modèles sortis).

- La communication entre le "SOC" et le reste du monde. Pour le moment, il y a quand même eu un sérieux coup de frein de ce côté : pas de GPU dédié, pas d'eGPU, perte de l'option réseau 10 Gbit/s sur le Mac Mini. Alors je suis d'accord pour dire que ces options sont pour certaines très dispensables, mais comme il s'agit d'une régression, la question peut être posée. Vont-ils étendre les échanges avec le SOC ou pas, vont-ils sortir certains composants comme le GPU par exemple ?

- Y aura-t-il encore la possibilité de modifier la mémoire ou le SSD (en particulier sur les iMacs les plus haut de gamme).

- Quel sera le reliquat de machines non migrées vers ARM (je pense par exemple au Mac Mini i5 qui est toujours au catalogue) et si possible d'essayer d'en comprendre la raison.

Source : https://forum.macbidouille.com/index.php?s=&showtopic=420072&view=findpost&p=4376534

Link to post
Share on other sites

(complément à l'analyse) :

- Est-ce que le ratio performance / coût restera le même ?

Je m'explique. Apple a marqué les esprits avec une approche très intéressante en terme de perfomance / Watts mais en même temps, elle a été très raisonnable sur l'aspect financier. Maintenant que les esprits sont conquis, Apple va-t-elle restée aussi généreuse ou au contraire va-t-elle progressivement remonter les prix ?

Link to post
Share on other sites

J'apporte une précision pour la première axe d'analyse. L'un des éléments clé sera la performance mono-cœur bien sûr. C'est son évolution, compte-tenu des variations éventuelles de fréquences et de consommation qui seront, pour moi en tout cas, vu comme un indicateur de ce que cette technologie a comme potentiel futur.

Un exemple concret : si la performance mono-cœur gagne 20% mais que la fréquence est 20% plus élevée, de même que la consommation, cela montre simplement le potentiel de la génération 1 de la puce. Le gain, entre les versions 1 et 1+ ou 2 se mesureront au contraire en neutralisant les effets de fréquences et (dans une moindre mesure certes) de consommations.

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
×
×
  • Create New...