Jump to content

Apple M : le Miracle a-t-il des limites ?


Sethenès
 Share

Recommended Posts

C'est le terme "volontaire" qu'il faut nuancer. Les boîtes n'engagent des budgets R&D juste pour la beauté du geste, elles en attendent un retour sur investissement. Si elles gagnent de l'argent sans avoir à faire de R&D ben elles n'en font pas. C'est un peu comme toi, si tu n'as pas un lion derrière toi tu as moins de raisons de courrir :D

Il y a une autre conséquence à la prise de pouvoir par les financiers : si les promotions aux plus hauts postes leurs sont réservées, les meilleurs profils techniques finissent par quitter l'entreprise et le résultat c'est une perte de compétences. Je pense que Intel en est là.

Edited by pehache
Link to comment
Share on other sites

Je suis assez d'accord. Je crois aussi qu'il faut se départir de l'idée qu'Intel en a "plein" sous la pédale et qu'ils ont pris leurs temps en rationnant les avancées, ou en tout cas pas plus que d'autres concurrents dans des situations semblables. Je me souviens que les Smartphone Samsung ont disposé de la 5G au moins deux générations avant les iphones. Et c'est habituel chez Apple. Pensons aux technologies telles que : WiFi 6, 5G, PCI 4.0, ...

Au contraire, le fameux mur quantique, il est là et bien là. Tout le monde sait qu'il y a une limite physique. Alors les ingénieurs rusent pour la contourner et sans cesse repousser les possibilités mais Intel comme les autres y est confrontée.

Si Pehache ne l'avait pas fait, j'aurais rappelé "l'erreur" d'avoir nommé des financiers chez Intel, mais je reste convaincu qu'il n'y a pas eu d'approche "cynique" de la part d'Intel et de volonté délibérée de brider l'innovation.

Intel savait par exemple bien qu'Apple devait avoir des prototypes de Macs sur des puces ARM et le risque d'une possible perte de ce marché. Brider volontairement la croissance des x86, revenait à encourager Apple dans l'abandon d'Intel au profit de ses propres puces.

Link to comment
Share on other sites

il y a une heure, LolYangccool a dit :

Pourquoi aussitôt AMD revenu dans la course avec les Ryzen, comme par magie, Intel en a de nouveau « eu sous la pédale » alors ?

A vérifier, mais de mémoire, qu'ont-ils fait ? Ils ont juste multiplié les cores. Avant, seuls les modèles "K" bénéficiaient de 6 coeurs et plus. Après, même les simples i7 ont été proposés avec des 6 coeurs (+HT), 8 (+HT). 

Et je suis désolé, mais pour la plupart des utilisateurs, passer de 6 cœurs à 12 n'apporte strictement rien. Mais vraiment rien.

Mais comme ça arrangeait tout le monde, Intel, les constructeurs de PCs et que les contre-pouvoirs (journalistes en tête) n'ont pas été assez mordant ... ben on a eu ce qu'on a eu.

Et honnêtement, j'ai l'impression qu'on est de nouveau reparti dans la mauvaise direction. Alors certes, les M1 Pro et Max apportent des avancées graphiques intéressantes mais au niveau CPU ... c'est de nouveau la multiplication des cores. 

Sérieusement, qui parvient à saturer les 8 cœurs du M1 ? Et je parle d'un "minimum" d'heures par jour car franchement attendre 10 secondes ou 8 pour un résultat ... c'est chou vert et vert chou ! 

Link to comment
Share on other sites

Intel a enlevé des coeurs aux i7 pour en remettre après...

Quand au M1, personne ne saturera les 8 coeurs en même temps, simplement parce que le M1 a 4 coeurs qui sont dédiés aux perfs et les 4 autres à l'efficience, ils ne tourneront jamais en même temps parce qu'ils ne sont pas faits pour ça.
Demander qui saturera les 8 coeurs du M1 c'est mal connaître la puce Sethenès.
Ils ne fonctionnent schématiquement que par 4, et si les 4 performances sont utilisés les 4 efficients ne peuvent pas être utilisés, ça n'a pas de sens.
C'est comme si tu demandais à un véhicule de rouler vite tout en ayant sa consommation de quand il roule à 50Km/h... C'est impossible et ça n'a aucun sens.

Edited by LolYangccool
Link to comment
Share on other sites

il y a 33 minutes, LolYangccool a dit :

Demander qui saturera les 8 coeurs du M1 c'est mal connaître la puce Sethenès.

pour moi la question de Sethenes a tout autant de sens avec les 4 coeurs perf :) c'est l'esprit de la question que je retiens : Si effectivement tu pousses les coeurs a fonds régulièrement et pendant longtemps, t'auras meilleurs temps d'acheter une machine plus puissante (et surtout à ce niveau, je pense qu'on s'en cognerait de la consommation) :) 

Link to comment
Share on other sites

Il y a 2 heures, LolYangccool a dit :

Quand au M1, personne ne saturera les 8 coeurs en même temps, simplement parce que le M1 a 4 coeurs qui sont dédiés aux perfs et les 4 autres à l'efficience ......

Certes mais le raisonnement de @Sethenès reste valable pour l'évolution M1 à M1 PRO ou M1 MAX.

On passe de 4p+4e pour le CPU M1 à 6p+2e ou à 8p+2e pour le CPU M1 PRO et 8p+2e pour le CPU M1 MAX. 

Link to comment
Share on other sites

@Fred4 Les M1 Pro et M1 Max ont tous les deux 8 +2 coeurs. Je ne sais pas où tu es allé cherché le 6 +2 coeurs ?
Edit : Ok t'as pris le CPU entrée de gamme, je l'avais oublié celui-là. Pour moi c'est pas la vraie M1 Pro, mais bon, ok.
La puce M1 Pro a 10 coeurs, la version 8 coeurs c'est une M1 Pro qui a été « ratée » lors de la production, et qui a en fait deux coeurs défaillant, et qui est donc vendu comme entrée de gamme avec par ailleurs les 8 autres coeurs qui fonctionnent bien.
Sylvain avait fait un article là-dessus il y a quelques temps.
D'ailleurs, lors de la keynote d'octobre, Apple a présenté la M1 Pro comme ayant 10 coeurs et n'a, d'après mes souvenirs, mais je peux me tromper, pas parlé d'une version 8 coeurs.

@Sethenès Cinebench n'est en rien représentatif. C'est un soft de benchmark qui pousse effectivement tous les coeurs à fond, y compris les économes, ensemble.
Sauf qu'en usage normal, en vrai usage représentatif, je ne pense pas que ce soit possible.
Genre, Final Cut ou Logic Pro, ou même un logiciel de virtualisation, comme // ou VMware Fusion, ou encore Virtualbox, savent-ils utiliser des coeurs économes en même temps que des coeurs performants ?
Pour la virtualisation ça me parait peut-être effectivement possible, mais pour les autres de la liste ça me semble être un non sens.

Edit 2 : J'ai retrouvé l'article @Fred4, la technique a même un nom et ça s'appelle le Chip Binning https://consomac.fr/news-13518-la-puce-apple-m1-et-le-chip-binning.html

Edited by LolYangccool
Link to comment
Share on other sites

il y a 3 minutes, Fred4 a dit :

MBP14 de base avec CPU 8 coeurs (6p+2e)

Oui je viens d'y repenser. J'ai édité à l'instant.
Mais ma remarque reste valable et ça n'y change rien.
Les dires de Sethenes n'étaient pas de dire on prends 8 coeurs, mais on prends tous les coeurs de la puces M1, c'est ça qu'il voulait dire par on prends les 8 coeurs de la puce M1. Parce que la M1 n'a « que » 8 coeurs.
Donc si on transpose à la M1 Pro/Max, il ne faut pas prendre 8 coeurs (sauf dans la puce de base, pusiqu'il n'y en a que 8), mais 10 coeurs.
En bref, on prends 100% des coeurs.
Avoir 8 coeurs c'est pas le problème, le problème c'est de savoir si on peut effectivement utiliser 100% des coeurs en même temps sur une puce ayant des coeurs performant et efficient. Ici on a prit 8 en exemple parce que 8 = 100% des coeurs de la M1.

Edited by LolYangccool
Link to comment
Share on other sites

Il y a 2 heures, LolYangccool a dit :

Cinebench n'est en rien représentatif. C'est un soft de benchmark qui pousse effectivement tous les coeurs à fond, y compris les économes, ensemble.
Sauf qu'en usage normal, en vrai usage représentatif, je ne pense pas que ce soit possible.
Genre, Final Cut ou Logic Pro, ou même un logiciel de virtualisation, comme // ou VMware Fusion, ou encore Virtualbox, savent-ils utiliser des coeurs économes en même temps que des coeurs performants ?

Je ne vois pas ce qui empêche.  A la limite le logiciel n'est même pas au courant de ce qu'il utilise, c'est l'OS qui distribue les process et les threads sur les différents coeurs. Après je ne dis pas que ça a beaucoup de sens d'utiliser les coeurs éco pour des tâches lourdes, mais rien n'empêche.

Link to comment
Share on other sites

Il y a 16 heures, LolYangccool a dit :

Sauf qu'en usage normal, en vrai usage représentatif, je ne pense pas que ce soit possible.
Genre, Final Cut ou Logic Pro, ou même un logiciel de virtualisation, comme // ou VMware Fusion, ou encore Virtualbox, savent-ils utiliser des coeurs économes en même temps que des coeurs performants ?
Pour la virtualisation ça me parait peut-être effectivement possible, mais pour les autres de la liste ça me semble être un non sens.

Qui décide d'allouer des ressources aux programmes qui en font la demande ? Qui, si ce n'est l'OS ? Donc si Cinebench demande et qu'il reçoit, toutes les autres applis qui demandent recevront aussi.

Qui attribue tel process à tel cœur ? Qui, si ce n'est l'OS en déterminant les process les plus gourmands et en les assignant aux cœurs les plus performant ? En plus, ici, il s'agit de prédictions. Même pas sûr que l'OS puisse faire cela, peut-être est-ce encore plus simple que je ne le pense et que les process sont simplement assignés prioritairement aux cœurs les plus performants et que dès que ces 4 cœurs ont un process en cours, le 5ème est assigné au cœur économe ?

A partir de ce moment là, tout est dit. Pourquoi l'OS se priverait d'assigner des process aux cœurs économes puisque tout ce qui est fait, est fait. En plus, cela semble très logique puisqu'en situation de "basse consommation", l'OS ferait simplement l'inverse : d'abord assigner les process aux cœurs économes et puis seulement, assigner le 5ème process au cœurs gourmands ?

Et c'est justement tout le sens de ma question. Il faut avoir des sacrés besoins pour saturer les 8 cœurs du M1 pendant plus que quelques secondes par jour (et déjà rien que ça, je serais curieux de voir le % d'utilisateur qui parvient à faire ça même une fois par semaine). Alors l'utilité des 10 cœurs pour le plus grand nombre ...

Désolé, je n'avais pas lu la dernière intervention de Pehanche.

Edited by Sethenès
Link to comment
Share on other sites

Après cracher sur les innovations comme la multiplication des coeurs bon...
J'ai l'impression que @Sethenès tu as la même dent envers Apple que moi je ne l'ai envers Intel, mais pour quelle raison ?

Puis, pourquoi l'OS allouerai t'il des coeurs efficients à un process qui demande de la puissance ?

Edited by LolYangccool
Link to comment
Share on other sites

il y a une heure, LolYangccool a dit :

Puis, pourquoi l'OS allouerai t'il des coeurs efficients à un process qui demande de la puissance ?

Ce n'est pas dans ce sens que ça marche. Un soft va décider de lancer plusieurs process en parallèle : s'il y a 4 coeurs heute performance, la logique pour un soft de gros calculs est de lancer 4 process, mais rien ne l'empêche d'en lancer 8. Dans ce cas l'OS a le choix : soit il met les 8 process uniquement sur les 4 coeurs hautes performances, ce qui fait que chaque process ne tourne qu'à 50%, ou bien il en met 4 sur les coeurs hautes performances et 4 sur les coeurs éco.

Link to comment
Share on other sites

Il y a 5 heures, LolYangccool a dit :

Après cracher sur les innovations comme la multiplication des coeurs bon...
J'ai l'impression que @Sethenès tu as la même dent envers Apple que moi je ne l'ai envers Intel, mais pour quelle raison ?

Puis, pourquoi l'OS allouerai t'il des coeurs efficients à un process qui demande de la puissance ?

Pour la seconde question, c'est plutôt dans l'autre sens que cela se passe. Comment un OS peut-il "à l'avance" déterminer qu'un process va demander de la puissance ? Un process, c'est un programme avec des boucles, des tests et donc potentiellement des conditions de terminaisons anticipées. Alors, certes si un programme comporte des instructions pour le FPU (le coprocesseur mathématique ou floating point unit), l'OS sait qu'il ne faut le confier qu'à certains coeurs qui disposent d'un FPU (je crois par exemple que c'est justement quelque chose qui manque à l'hyper-threading). Mais en dehors de cela ?

Ce dont il faut aussi se rendre compte, c'est qu'un très grand nombre de process tournent en permanence "en parallèle". Sur Windows, il suffit d'ouvrir le gestionnaire de tâches. Le mien indique 6 Apps, 125 "background process" et 106 " Windows Process". Sur OSX, il y a également un paquet de tâches/process qui tournent en permanence.

Dans la mesure où aucune de ces tâches/process n'est gourmande, l'ensemble n'occupe que 6-7% de la capacité CPU totale. 

La toute grande majorité des applications, ne vont pas se poser trop de question et souvent il n'y a qu'un seul process, sauf si les programmeur ont intégré du multithreading à l'application. Mais souvent, il s'agit (par exemple) de réindexer des listes à l'écran. Par exemple quand on ouvre le Finder/Explorer, si l'application reste réactive pendant que les listes se remplissent, c'est un signe qu'il y a (au moins) 2 threads. Un pour l'appli et l'autre qui cherche les données à ajouter à la liste.

Donc, chaque application va vivre sa vie sans se soucier des autres. Elle va demander de la mémoire à l'OS, elle va démarrer des process et c'est l'OS qui va se débrouiller pour satisfaire les demandes des différents programmes. Si on en démarre trop, ou de trop gourmand, il y aura juste des ralentissements.

Alors évidemment, certaines applications tout à fait particulière (je pense notamment à OpenCL ou à Cuda) vont elle faire l'inventaire complet des ressources (CPU, cores/threads, GPU, nombre de GPU, unité de calcul par GPU, etc.). En fonction des réponses et de ce que le programmeur a choisi, là, il peut y avoir une optimisation plus poussée. Je ne serais pas surpris que certains programmes d'encodage vidéo disposent également de ce genre d'option (mais dans ce cas, c'est plutôt l'utilisateur qui va pouvoir en décider via les menus).

Pour ce qui est de la première question, oui je ne le cache pas, Apple m'a globalement déçue.

Je ne crache pas sur la multiplication des cœurs. Mais cela n'a rien d'une nouveauté. Si tu prends les Mac Pro camions d'août 2010, ils disposaient déjà de Xeon 6 cœurs / 12 threads. Ce n'est qu'en début 2015 que les premiers i7 "Extreme Edition" ont pu bénéficier de cette nouveauté avec qu'elle soit proposée 2 ans plus tard dans toute la gamme des i7. Donc en 2016-2018, je ne sais plus quand Intel a fait sauter le verrou (i7 non "EE" = max 4 cœurs/8 threads) qu'ils maintenaient jusque là, ce n'était pas à proprement parlé une "nouveauté" puisque les "petits Xeon" (ceux du Mac Pro) disposaient déjà de CPU à 6 cœurs depuis 7 ans. Et je ne sais pas depuis quand les "gros Xeon" (ceux des serveurs) en disposaient.

De plus, à la limite, ouvrir des i7 à 6 cœurs / 12 threads mais de proposer par la suite des 8 / 16, 10 / 20, 14 / 28 et même des 18 cœurs / 36 threads, m'amène à nouveau à me demander qui peut utiliser de telles configurations.

Je ne dis pas que ce n'est utile à personne - mais - ce que je dis, c'est qu'augmenter significativement les performances monocoeur, ça par contre, c'est utile à beaucoup (mais alors beaucoup) plus de monde !

Et même dans le cas d'une machine qui héberge des VMs. Pourquoi ? Parce que si un "gros" process ne tourne que dans une des VMs (et qu'il n'y a rien de très gourmand qui tourne dans les autres VMs), alors ce process gourmand profitera "aussi" à plein du gain de performance en monocoeur offert par le CPU !!!

Edited by Sethenès
Link to comment
Share on other sites

Chez AMD aussi on a une multiplication des cœurs a tout va. Linus Tech Tips montre régulièrement des Threadrippers à 64 cœurs/128 threads…
Ce n’est pas propre à Intel, c’est toute l’industrie qui va en ce sens.

Mais oui c’est vrai que les perfs monocoeur sont importantes aussi et les M1 ont améliorées ces performances.
Pour moi les M1 Pro/M1 Max ne sont que des M1 améliorée, qui se basent sur les mêmes cœurs. Et donc n’apportent rien en terme de performances monocoeur.

Il faudra voir avec les M2 s’il y a une amélioration à ce niveau là.

Edited by LolYangccool
Link to comment
Share on other sites

Je ne dis pas que la multiplication des cœurs est une hérésie. Pour certains usages, c'est utile.

Mais il faut raison garder. Un CPU avec 128 threads, ça se monte dans une machine qui peut les alimenter. Déjà, il est impensable pour moi d'avoir moins de 1GB de RAM par threads. Cela implique une machine ayant un minimum de 128 GB (8 x 16 GB puisqu'il y a 8 channel). Ensuite, question stockage ... il faut que ça suive aussi. Les Threadripper disposent de 128 lignes PCI Express 4.0. Il est donc possible "théoriquement" d'en garder 8 pour un GPU, mettons une 40aine pour des cartes réseau, il reste encore de quoi connecter 20 "disques" NVME en PCI-E 4.0 4x !

Je sais bien que de telles cartes-mères n'existent pas, mais c'est pour donner une idée du genre de config qu'il faut pour exploiter de telles possibilités. Pour moi, je ne vois qu'un seul usage à ces puces : le monde serveur.

Toute la question est de savoir si cette multiplication des cœurs est la seule réponse des fondeurs.

Ce que je prétends, c'est que c'est inutile à la toute grande majorité d'utilisateur et que si on ne leur propose que ça, c'est de la poudre aux yeux ! Et c'est justement ce qu'il s'est produit dans le passé. Pendant combien de temps, tout le monde s'est extasié devant la progression de la puissance des CPU, alors que les fondeurs ne faisait qu'ajouter 2coeurs/4threads au modèles précédents ?

J'estime qu'au delà de 4 cœurs / 8 threads (ou 6 cœurs / 6 threads), c'est totalement inutile à une très large majorité d'utilisateurs. Pourquoi ? Car les programmes eux-mêmes n'utilisent pas plus de threads avec le temps. Soit c'est parce que c'est impossible (certaines problématiques ne peuvent pas se paralléliser), soit c'est la fainéantise des programmeurs. Mais cela ne change rien au problème.

Quant à la question que tu poses à propos des M2, elle est centrale pour moi.

Tout d'abord, je la pose "doublement à Intel" puisque je m'interroge à la fois sur les prochaines générations d'Intel, mais aussi pour les "petits" modèles de la génération actuelle. Car pour le moment, on n'a que le bench d'une config survitaminée et surtout ... surrefroidie lorsqu'elle est utilisée en monocoeur !

Maintenant, si le M2 garde les mêmes perfs mais fait "encore" mieux dans l'autonomie, pas mal d'utilisateurs risquent d'y voir une avancée. Mais en terme de performance pure (et en particulier pour les modèles desktop), les performances monocoeur du M2 seront cruciales.

Edited by Sethenès
Link to comment
Share on other sites

Il y a 22 heures, Sethenès a dit :

J'estime qu'au delà de 4 cœurs / 8 threads (ou 6 cœurs / 6 threads), c'est totalement inutile à une très large majorité d'utilisateurs. Pourquoi ? Car les programmes eux-mêmes n'utilisent pas plus de threads avec le temps. Soit c'est parce que c'est impossible (certaines problématiques ne peuvent pas se paralléliser), soit c'est la fainéantise des programmeurs. Mais cela ne change rien au problème.

A l'heure actuelle des performances monocoeur de ouf sont tout autant inutiles à une très large majorité d'utilisateurs.

Edited by pehache
Link to comment
Share on other sites

Il y a 15 heures, pehache a dit :

A l'heure actuelle des performances monocoeur de ouf sont tout autant inutiles à une très large majorité d'utilisateurs.

Je suis bien d'accord. Mais cela pose alors une question beaucoup plus générale. Les sites d'information "grands publics" doivent-ils encore suivre "l'évolution" des CPU ?

Mais sur le fond tu as raison, si il y a 20 ou 30 ans, la vitesse de remplacement des machines dans les grosses boites (cycle de 3 ans, calé sur la durée d'amortissement comptable) étaient vus par certains comme beaucoup trop long (je me souviens d'avoir du jouer au "disk jockey" avec le "nouveau" PC du nouveau qui allait à un ancien, et le PC de l'ancien à un moins ancien et finalement le nouveau récupérait le vieille rickette dont plus personne ne voulait), aujourd'hui la durée du cycle est allègrement passé à 4 voir même 5 ans (je parle en moyenne).

Ceci dit, on parle de suivi des nouveautés, donc je pars de l'idée que ceux qui suivent ces news (et qui les commentent) ont un besoin de "plus" de performance. Et c'est là où effectivement, pour eux, à moins bien sûr qu'ils aient des besoin très particulier (mais en général dans ce cas là, on le sait), les performances monocoeur sont centrales.

Mais là aussi, qui a encore aujourd'hui des "gros lags" ou doit attendre même 30 secondes pour qu'une tâche s'accomplisse ? Celui qui a fait un macro excel en "recordant" les étapes. Oui, peut-être. Encore que s'il demandait à un spécialiste de lui programmer le bidule, l'utilisation des fonctions tels que les offset ou de ne fut-ce que masque le rafraichissement, diminuerait le temps d'un facteur 10 au moins (voir rendrait la macro presque aussi rapide que du compilé).

Enfin, reconnais que très souvent, je relativise les gains. 10% de gain de performance, ce n'est jamais que de faire en 9 secondes ce qu'avant on faisait en 10. 

C'est aussi pour ça que je me montre insistant en particulier sur le multicœurs parce quelqu'un qui ne se fierait qu'à ces chiffres et qui disons aurait remplacé une machine de 2013 par une de 2018 pourrait être déçu du peu de gain observé.

Link to comment
Share on other sites

Il y a 2 heures, Sethenès a dit :

Ceci dit, on parle de suivi des nouveautés, donc je pars de l'idée que ceux qui suivent ces news (et qui les commentent) ont un besoin de "plus" de performance. Et c'est là où effectivement, pour eux, à moins bien sûr qu'ils aient des besoin très particulier (mais en général dans ce cas là, on le sait), les performances monocoeur sont centrales.

Besoins, ou envies, la frontière est parfois mince ;)

Si tu ne listes pas en quoi consistent précisément les "besoins de performance", quels sont les usages, on parle un peu dans le vide...

Link to comment
Share on other sites

Il y a 1 heure, pehache a dit :

Besoins, ou envies, la frontière est parfois mince ;)

Si tu ne listes pas en quoi consistent précisément les "besoins de performance", quels sont les usages, on parle un peu dans le vide...

Oui mais si tu touches à ça ... parlons véhicule et de qui a la plus grosse ... 

Link to comment
Share on other sites

  • 4 months later...
Le 28/03/2021 à 09:13, Sethenès a dit :

Ce que j'analyserai, ce sera :

- Le différentiel de puissance à nombre égal de cœur, ce qui devrait donner une idée de la marge dont dispose la technologie ARM (évidemment croisé avec d'autres données : fréquence, consommation). Analyse à réaliser tant pour le CPU que pour le GPU, il va sans dire.

- L'évolution dans l'intégration des composants. C'est l'une des question ouverte. Le concept d'Apple est-il mûr ou au contraire, va-t-il encore évoluer significativement à court terme (avec évidemment en ligne de mire, la vitesse d'obsolescence des premiers modèles sortis).

- La communication entre le "SOC" et le reste du monde. Pour le moment, il y a quand même eu un sérieux coup de frein de ce côté : pas de GPU dédié, pas d'eGPU, perte de l'option réseau 10 Gbit/s sur le Mac Mini. Alors je suis d'accord pour dire que ces options sont pour certaines très dispensables, mais comme il s'agit d'une régression, la question peut être posée. Vont-ils étendre les échanges avec le SOC ou pas, vont-ils sortir certains composants comme le GPU par exemple ?

- Y aura-t-il encore la possibilité de modifier la mémoire ou le SSD (en particulier sur les iMacs les plus haut de gamme).

- Quel sera le reliquat de machines non migrées vers ARM (je pense par exemple au Mac Mini i5 qui est toujours au catalogue) et si possible d'essayer d'en comprendre la raison.

Source : https://forum.macbidouille.com/index.php?s=&showtopic=420072&view=findpost&p=4376534

 

Le 28/03/2021 à 16:26, Sethenès a dit :

(complément à l'analyse) :

- Est-ce que le ratio performance / coût restera le même ?

Je m'explique. Apple a marqué les esprits avec une approche très intéressante en terme de perfomance / Watts mais en même temps, elle a été très raisonnable sur l'aspect financier. Maintenant que les esprits sont conquis, Apple va-t-elle restée aussi généreuse ou au contraire va-t-elle progressivement remonter les prix ?

 

Le 30/03/2021 à 20:09, Sethenès a dit :

J'apporte une précision pour la première axe d'analyse. L'un des éléments clé sera la performance mono-cœur bien sûr. C'est son évolution, compte-tenu des variations éventuelles de fréquences et de consommation qui seront, pour moi en tout cas, vu comme un indicateur de ce que cette technologie a comme potentiel futur.

Un exemple concret : si la performance mono-cœur gagne 20% mais que la fréquence est 20% plus élevée, de même que la consommation, cela montre simplement le potentiel de la génération 1 de la puce. Le gain, entre les versions 1 et 1+ ou 2 se mesureront au contraire en neutralisant les effets de fréquences et (dans une moindre mesure certes) de consommations.

Y avait de l'idée, non ?

Link to comment
Share on other sites

  • 1 month later...

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Loading...
 Share

×
×
  • Create New...