Un premier Mac ARM en 2016 ?


Apple a-t-elle bien un Mac propulsé par un processeur ARM dans ses cartons ? La rumeur revient régulièrement depuis quelques années, et la célèbre analyste Ming-Chi Kuo a confirmé cette semaine qu'Apple avait bien l'intention de produire ses propres puces pour ordinateur. Le tableau ci-dessous, censé donner quelques détails sur la feuille de route d'Apple pour les deux prochaines années, montre un Mac équipé d'un processeur Apple A10X en 2016.

Apple pourrait lancer des Mac qui utilisent ses propres processeurs dans un à deux ans. Cette prédiction est basée sur l'hypothèse que les processeurs développés par Apple auront une puissance située entre un Atom d'Intel et un Core i3, et que cette puissance est jugée suffisante pour un Mac. Utiliser un processeur maison peut aider Apple à mieux contrôler le timing des nouveautés et les fonctionnalités des nouveaux Mac.



Si Apple fait effectivement ce choix, seules quelques configurations seront équipées d'un processeur ARM dans un premier temps. En effet, des performances situées entre un Atom et un Core i3 ne peuvent être acceptables que sur un MacBook Air ou un Mac mini ! Mais bien que les avantages d'utiliser des processeurs maison soient évidents, qu'il s'agisse de problématiques de coût, de contrôle ou de confidentialité, abandonner les processeurs x86 d'Intel représente un grand risque. À l'heure où le fondeur de Santa Clara s'intéresse de plus en plus aux processeurs à très basse consommation, notamment avec le processeur Core M qui pourrait équiper le prochain MacBook Air (lire : Le MacBook Air 2015 en détail ?), s'éloigner d'Intel et entamer une nouvelle transition serait-il bien sage ?

Mise à jour 17:15 :
Le PDG d'Intel, Brian Krzanich, a réagi à la rumeur dans une interview pour CNBC :
J'entends les mêmes rumeurs. Notre relation avec Apple est solide et leurs produits sont excellents. Apple va toujours choisir le fabricant qui peut lui fournir la meilleure capacité d'innovation, pour qu'ils puissent ensuite innover eux-mêmes. L'innovation est le coeur de leur entreprise. Notre travail est de continuer à produire des composants qui pourront leur assurer cette innovation, et qui seront meilleurs que ceux de nos concurrents. Et ils voudront utiliser nos composants. Donc lorsque je me lève chaque matin, je m'assure que pour Apple, Lenovo, Dell ou n'importe lequel de nos clients, nous puissions proposer les meilleurs composants : performance, prix, fiabilité, tout cela.
Des liens n'apparaissent pas ? Des images sont manquantes ? Votre bloqueur de pub vous joue des tours. Pour visualiser tout notre contenu, merci de désactiver votre bloqueur de pub !

Partager

Sur le même sujet

Vos réactions (15)

marckiller2n

16 janvier 2015 à 15:34

Ce serait un suicide

Thomas

16 janvier 2015 à 17:33

+1 en plus avoir un système compatible Intel et ARM ça serait une cata en perfo

pehache

16 janvier 2015 à 20:47

@thomas : et pourquoi donc ?

LolYangccool

16 janvier 2015 à 20:59

Intel, innover ? Leur concurrents sont larguer depuis un moment, ils ont plus besoin d'innover chez Intel, ils sont leader et quasiment sans concurrence...
Regardez autour de vous, je suis sur que 9 ordinateurs sur 10 possède un processeur Intel !

Sethenès

16 janvier 2015 à 21:22

Oui peut être, mais combien de tablettes et de smartphone possèdent un processeur Intel ?

Intel a réagi à mon avis juste à temps, en se focalisant sur la consommation d'une part et les cartes graphiques intégrées d'autre part.

Pour revenir au sujet initial, j'imagine difficilement comment un Mac ARM disposera de suffisamment de programmes disponibles compilés pour ARM. Il suffit de voir comme Microsoft galère avec ses téléphones alors qu'il n'y a que deux concurrents : Androïd et iOS alors imaginez la difficulté pour les éditeurs de maintenir une version sous Windows, une sur x86 et une sur ARM, surtout si on divise encore par deux les parts de marché des machines sous OSX/x76 et OSX/ARM.

je ne suis évidemment qu'un consommateur parmi d'autres, mais si Apple opte pour ce chemin, je serai bien forcé de retourner sur PC.

pehache

17 janvier 2015 à 20:44

@sethenes : maintenir une appli pour deux architectures mais un même OS, ça ne pose pas de si gros problèmes que ça.

Sethenès

17 janvier 2015 à 21:05

Oui, c'est vrai, tu as en partie raison.

Par contre, ça double le nombre de HW sur lesquels il faut tester l'application (j'avais une appli qui roulait sur iPad 1 mais qui buggait sur iPad 2. D'accord, c'était dû à une erreur de programmation de ma part, mais n'ayant qu'un iPad 1 et le simulateur, je ne l'avais jamais provoquée lors de mes tests). D'autre part, les puces d'Intel ont l'air vraiment performantes au niveau de la partie graphique. Un société qui se baserait sur ces perfs pour développer une appli pourrait avoir des surprises lors de la commercialisation.

J'ai quand même l'impression que le marché des sociétés est très segmenté avec de nombreux acteurs de relativement petite taille et déjà certains sociétés jettent l'époque (produit de comptabilité Ciel, de mémoire ?). Et pour ce qui est des grosses boites, elles sont souvent en concurrence avec Apple sur d'autres segments de marché (Microsoft, Adobe), dès lors elles ont leurs propres intérêts en matière de logiciel.

DjebbZ

17 janvier 2015 à 23:00

Il me semble que cela empêcherai de faire tourner Linux/Windows non ? Que ce soit en machine virtuelle ou dual boot. Si c'est le cas ce serait une catastrophe.

pehache

18 janvier 2015 à 00:31

En dual boot c'est sûr.

En machine virtuelle ça serait encore possible, mais avec émulation du CPU, donc des performances très réduites.

Thomas

18 janvier 2015 à 11:12

@pehache : de faibles performances parce que tout les langages qui ont essayé d'être compatible avec tout le monde ont prouvé qu'il n'était pas possible d'allier performances avec interopérabilité, les deux plus gros exemples sont flash et java... J'aime beaucoup Apple et j'aimerais bien qu'il y arrivent, mais j'en doute

pehache

18 janvier 2015 à 13:05

@thomas :

1) tu confonds langage de programmation et binaire exécutable
2) tu identifies mal les raisons pour lesquelles certains langages sont peu performants

Le C est par exemple à la fois ultraportable et permet de générer du code performant. Ce n'est d'ailleurs pas pour rien que tous les OS actuels sont écrits à 90% en C. Linux tourne sur des dizaines de CPU différents, avec le même niveau de performances. OS X lui-même est passé du PowerPC au x86 Intel sans problème particulier, et il tourne certainement déjà sur ARM chez Apple (et iOS, qui est basé sur OS X, tourne bien quant à lui sur ARM). Windows lui-même a eu des version dans le passé tournant sur Dec Alpha.

Si Flash et Java sont peu performants c'est surtout parce que ce sont des langages avec un niveau d'abstraction élevé, qui visent avant tout à simplifier le développement même si c'est au détriment de la performance, et qui sont partiellement interprétés.


Thomas

18 janvier 2015 à 21:55

@pehache: Je me coucherais moins con, merci

Elrifiano

19 janvier 2015 à 13:50

Dans l'immédiat non, x86 restera supérieur à ARM en terme de puissance brute.

Mais il ne faut pas oublier qu'ARM monte en puissance d'année en année et sur le long terme, je pense bien qu'Apple voudra équiper tous ses Mac de processeurs qu'elle aura elle-même conçu, et ne pas dépendre systématiquement d'Intel. Car lorsque un Mac tarde a être renouvelé c'est général dû à Intel.

Mais encore une fois c'est une transition à long terme et il y'aura un pas mal de choses a prendre en considération et il ne faudra pas que ça soit une régression par apport aux Mac actuels.

Ben10

19 janvier 2015 à 14:37

Je ne saurais lire l'avenir ou même ce vers quoi les tendances actuelles nous mènent, mais je me contenterai de comparer avec d'autres évolutions technologiques du passé. Lorsque les écrans plats sont arrivés, avec notamment le plasma, les mouvements d'image laissaient une traînée sur l'écran. Une avancée technologique qui était encore embryonnaire, bien loin des LCD et LED actuels. Il y a 5 ans j'ai choisi un TV LCD plutôt que LED, justement parce que le LED plus précis, avait tendance à accentuer les défauts des images si celles ci n'étaient pas parfaites. A l'époque les dvix HD n'étaient pas aussi répandus qu'aujourd'hui.
Ce que je tente de montrer c'est qu'une nouvelle technologie, ou un nouveau modèle technologique ou informatique, est rarement à son "meilleur niveau" à ses débuts. Il est évident que cette comparaison n'est en rien une prédiction puisque cette observation n'est pas systématique, mais il existe l'éventualité que l'architecture ARM moins puissante aujourd'hui le soit beaucoup plus demain. il se peut que ce soit une étape indispensable pour gagner en compacité et économie d'énergie, et que le puissance arrivera en second temps est si c'est le cas on peut voir apparaître le nouveau référent en processeur informatique, qui poussera peu à peu les autres modèles vers la sortie.
On doit bien admettre que les SSD sont une évolution par rapport à nos bons vieux DD mais au détriment de la capacité (et pas qu'un peu!). Celle-ci arrive progressivement et lorsque nous aurons rapidité, fiabilité et capacité dans un seul SSD, les DD disparaitront.
De la même manière aujourd'hui on a le choix entre plusieurs architectures de processeurs, si l'une d'entre elle réuni tous les atouts nécessaires (puissance, compacité, économie d'énergie...), elles s'imposera naturellement.

Sethenès

19 janvier 2015 à 17:01

Il faut peut être lier cette info avec celle faite par Intel concernant Skylake. L'annonce des Skylake M (ce n'est pas dit explicitement comme ça, mais c'est quand même suggéré) d'ici la fin de cette année repousse l'intérêt du passage au processeurs ARM pour les PCs et les Macs.

Réagir
Vous devez être connecté à notre forum pour pouvoir poster un commentaire.

Plus loin Connexion
Plus loin Inscription