Jump to content

Sethenès

Members
  • Posts

    2,851
  • Joined

  • Last visited

Everything posted by Sethenès

  1. Par souci d'honnêteté, je me présente. Je suis un déçu de certains produits Apple, mais surtout de la politique de cette société. Ceci dit, je pense avoir raison quand je dis qu'avec Apple, tu as tout intérêt à utiliser leurs produits comme ils veulent que tu les utilises. Sans ça, tu vas au devant de (mauvaises) surprises à court ou à moyen terme car ils n'hésiteront pas à supprimer (et sans avertissement) tout ce qu'ils considèrent comme "non" canonique. Si avec le Mac, il y a encore une certaine liberté, c'est nettement moins le cas sur iPad. Plus encore, au plus tu entreras dans l'écosystème Apple, au plus tu seras pieds et poings liés. Un simple exemple : il est impossible de réinstaller une version antérieure d'iOS une fois que tu as installé la nouvelle. Donc même si une fonctionnalité ne te convient pas, tu ne pourras pas revenir en arrière. Et même si tu parvenais à le faire, tout est mis en œuvre pour te forcer à avoir les dernières versions d'OS sur tout tes appareils Apple. Ce n'est pas fortuit, c'est voulu. Cela figure en toute lettre dans le mail-"testament" de Steve Jobs envoyé à ses troupes un peu moins d'un an avant sa mort, je cite : Qui peut se traduire (libre) part : "lier tous nos produits ensemble afin de mieux verrouiller les clients dans notre écosystème. Je crois que cela a le mérite d'être clair. Source : https://consomac.fr/forums/topic/10823-mail-de-sj-du-24-octobre-2010-historique/?tab=comments#comment-133822
  2. Cela change(rait) fortement la donne, effectivement. J'ai un peu cherché et je trouve l'info qu'Apple a utilisé pour l'iPhone 4S, un GPU de la marque PowerVR. Source : https://www.anandtech.com/show/4971/apple-iphone-4s-review-att-verizon/6 Source : https://www.notebookcheck.net/PowerVR-SGX540.115806.0.html Après un peu plus de fouille, je trouve ceci concernant l'A10 : "Further analysis has suggested that Apple has kept the GT7600 used in Apple A9, but replaced portions of the PowerVR based GPU with its own proprietary designs.". C'est à partir de la puce A11, que la dénomination "Apple-designed three-core graphics processing unit (GPU)" apparait. Donc disons que le "entièrement" de ton intervention d'hier me parait à tout le moins un peu exagéré. Le tout serait de savoir si Apple paie une licence / redevance à PowerVR ou pas. Source : https://en.wikipedia.org/wiki/Apple_A10 Source : https://en.wikipedia.org/wiki/Apple_A11 Pour le NPU, je trouve ceci (même source que précédemment) : "Bloomberg says that the neural engine is the fruit of Apple's efforts to improve its AI team, since the 2015 report by Bloomberg that Apple's secretive nature made it difficult to attract AI research scientists.[16] Apple has since recruited people and multiple companies working on AI, and has published papers related to AI research.[16] In October 2016, Apple hired Russ Salakhutdinov as its director of AI research.". Ici, je ne trouve aucune "antériorité" faisant référence à une "paternité" externe comme base de la puce (ou du morceau de puce) d'Apple.
  3. Si ce n'était que ça, pourquoi Apple n'aurait-elle pas simplement inventer un jeu d'instruction et les specs qui vont avec. Et là, ils maitrisaient tout le "pipe". Je ne pense que Nvidia, qui rappelons-le maitrise ces technologies en partie du moins, aurait tenté de s'emparer d'ARM si la valeur ajouté était si faible. Et pour les keynotes, je suis assez d'accord. J'ai un iPad mini et je trouve son OS adapté. Par contre dès lors qu'ils ont voulu vendre des iPads "Pro", dans le sens de tablette non convertible qui puisse remplacer un laptop classique, il fallait que l'OS propose les mêmes fonctionnalités que l'OS d'un laptop. En ce sens, les "avancées" récentes ne sont finalement qu'une série de reculs sur des mauvaises décisions antérieures, décisions purement dogmatiques.
  4. C'est vrai. Mais il y a ici un subtil glissement. ARM, jusqu'à preuve du contraire n'est pas une technologie Apple, en ce compris les GPU des processeurs ARM. C'est d'ailleurs un point que j'ai difficile à intégrer, c'est que ce qu'Apple fait de ARM, les autres ont (ou auraient) tant de mal à le refaire. Et d'ailleurs, il n'a échappé à personne que plusieurs collaborateurs ont été récemment débauché par la concurrence. C'est un peu le risque qu'Apple prend en utilisant une technologie tierce, qui de surcroit à un businness model fondé sur la licence d'utilisation. Et il est clair que depuis l'échec de Nvidia à racheter ARM, Apple ne pourra pas les racheter non plus. Donc oui, force est de constater qu'ils tirent le meilleur de ARM, mais ARM ce n'est pas une technologie Apple !
  5. Et surtout, le plus important est d'avoir un bon backup ... et surtout de ne pas faire confiance à Time Machine comme seul outil de backup.
  6. Pehache je peux me poser trop de questions, mais à nous deux on dépasse les 10k interventions sur ce forum. Le seul argument que je réfute, c'est celui du GPU. AMD et Nvidia proposaient des petites puces très honorables qu'Apple aurait pu choisir d'intégrer. Au départ, Intel ne propose que des puces résiduelles, qui permettent effectivement de s'affranchir des petites puces de Nvidia et d'AMD. C'est avec la génération de puces actuelles, qu'Intel a choisi de tenter de concurrencer AMD et Nvidia sur les autres segments. D'ailleurs, Intel a déjà pratiquement un an de retard avec ses puces ARC. Quant au calendrier capricieux d'Intel, cela fait plusieurs années qu'Intel a renoué avec sa sortie annuelle en octobre. Et c'est bien typiquement ça, que je vise. Cet ensemble de "croyance" que j'ai presque envie de qualifier de légende urbaine. Gain de finesse = augmentation "décisive" de performance, c'est du passé. Intel toujours en retard, c'est du passé. OSX/ARM est tellement bon que 8 GB sur Mac équivalent à 16 GB de mémoire sur PC (au moins 2 ou 3 intervenants l'ont encore affirmé cette dernière année), etc. L'argument Covid peut-être mobilisé, mais à nouveau, tous les autres concurrents y font face aussi.
  7. Sur le fond, je suis d'accord. Mais pas dans ce cas-ci, et j'explique pourquoi. Apple choisit de renoncer à x86 et tous les avantages inhérents (compatibilité ascendante/descendante garantie, Windows, application OSX x86 non portée, perte supplémentaire de modularité, etc.). De gré ou de force, elle embarque ses clients dans cette aventure, qui n'ont d'autres choix que de suivre ou quitter la marque (le support de Ventura est plus que clair sur ce point). De plus, Apple a tout fait pour marquer les esprits en premier des prix très attractifs, l'absence de communication étant une des techniques qu'ils ont sciemment utilisé pour ne pas détromper les clients. Je vise ici typiquement les premiers avis sur les M1 : enfin débarrassé de ces fainéants d'Intel, enfin débarrassé de ces escrocs d'Intel qui se gavent sur notre dos, etc. Et si la puce M1 a été aussi facilement adoptée, c'est aussi en raison de ces "fausses" (c'est la question) croyances. Et Apple s'est bien gardée de rectifier. Alors quand les délais, qui auraient dû être meilleur que ceux d'Intel, s'allongent, oui, je trouve normal de mettre ce point en évidence. Justement parce qu'Apple l'a sciemment utilisé. J'édite pour rajouter un point d'importance, c'est que c'est tout le pari du M qui est posé. Est-il oui ou non, capable de laisser Intel (et AMD) sur le bord de la route en simple spectateur. Est-ce que l'ère du x86 touche à sa fin ? Et là, la question de la vitesse de progression des performances des puces M(N+1) vs M(N) est centrale. Performance ici étant pris au sens le plus large : performances pures, performances / Watts (avec un gain d'autonomie mesurable), performance / prix, ... C'est cette question qui est au cœur du pari d'Apple, qui je l'ai dit n'est pas proposée sous forme d'option au client, mais qui lui est imposé.
  8. Je trouve quand même que Ventura est très sélectif ... D'accord, je prends le "pire" exemple, mais un MBA acheté en octobre 2018 qui n'est pas compatible avec un OS de 2022, c'est quand même très limite. C'est une inquiétude soulevée dès la sortie des Apple Silicon et elle se vérifie en partie.
  9. Quelques réflexions "à chaud". Tout d'abord, il était temps pour la puce M2. Sans cela, on se dirigeait vers un intervalle de pratiquement 2 ans, intervalle qui sera déjà de 19 mois au moins pour le MBA (et accessoirement d'office plus long pour le Mini). Deuxième élément, l'augmentation de prix est quand même très nette. Elle oscille entre 25% si on prend les nouveaux tarifs du M1 comme référence et 33% si on compare aux anciens prix (1499/1129). Ceci dit, j'ai difficile à évaluer la "valeur" des autres gains du M2 MBA (jusqu'à quel point la caméra 1080p est une révolution). Mais sur ce point, n'hésitez pas à réagir. J'attends un peu plus de détail sur le +18% de performance entre générations. Je pense en particulier à une éventuelle différence de fréquence (ou pas). Et aussi de savoir si on parle de performance monocoeur/monothread ou multithread. Si on ramène ce chiffre sur une base annuelle, on est à peu près à +11% (1,18^(12/19)), je dirais que c'est quand même la limite basse attendue. N.B. : Il est évident que +18% à fréquence égale est beaucoup mieux que 0% d'augmentation avec +18% en fréquence, puisqu'on le sait, l'augmentation de fréquence n'est elle pas infinie. C'est vraiment la question centrale qui reste encore ouverte. Quant à l'autonomie inchangée, j'en reviens toujours un peu à la même question : où passent les magnifiques augmentations de performance par Watts annoncées ? Mais +18% à comparer avec une hausse du prix de +25% ... c'est un peu compliqué (en tout cas pour le MBA). Le ratio performance / prix du M2 semble en tout cas moins bon que celui du M1. 1500 euros comme prix de base pour le M2 ...
  10. https://ark.intel.com/content/www/fr/fr/ark/products/42014/intel-core2-duo-processor-p7550-3m-cache-2-26-ghz-1066-mhz-fsb.html https://fr.aliexpress.com/w/wholesale-cpu-socket-pga478.html Tu as la réponse ... c'était "encore" le bon vieux temps. Ceci dit, qu'on soit clair, les CPUs & GPUs des PCs portables récents sont aussi tous soudés (ici on parle quand même d'une puce sortie en 2009).
  11. Je pense que c'est assez facile à savoir. 1/ tu trouves le modèles de CPU exact qu'il y a dans le Mac 2/ tu vas sur le site "ARK" d'Intel qui recense tous les CPUs produits (via une recherche internet "Intel ARK i7-8250U" (par exemple) 3/ tu regardes le type de socket (ici FC-BGA1356) et puis tu te renseignes pour savoir le type de socket, s'il existe des CPUs compatibles en vente dans le commerce, etc. Ici dans mon exemple, je trouve que BGA veut dire "Ball Grid Array", je cite : "The “BGA” part of BGA1356 means Ball Grid Array, where the CPU is soldered to the mobo(motherboard) . Inorder to upgrade the CPU you've changed the entire motherboard." (sic). Source : https://www.quora.com/My-laptop-has-BGA1356-socket-Is-it-possible-to-upgrade-the-CPU-with-this-socket
  12. Pourquoi faut-il toujours, sur les forums, remettre en question le besoin exprimé par l'O.P. ? Suggérer, pourquoi pas, mais ici, ça glisse progressivement vers le jugement. Et je ne stigmatise pas que la dernière réaction, mais un glissement progressif au fil de la discussion. Que vous, dans vos études, n'en n'ayez pas eu besoin (ou pas la possibilité, ou que ce soit interdit), j'en conviens, mais pourquoi refuser ce droit à d'autres ? En plus, justement dans ce cas-ci, on n'a pas affaire à quelqu'un qui aurait tendance à mettre la barre très (trop ?) haut, du style "je vais avoir besoin d'un très bon Mac parce que blabla". Non ici, au contraire, il s'agit de quelqu'un dont le premier choix est un petit Mac d'occasion.
  13. Effectivement, la prise de notes électroniques n'est pas adaptée à l'ensemble des filières, mais malgré tout elle est possible pour une part non négligeable d'entre elles. Je pense au droit, aux sciences humaines, aux lettres et apparenté (histoire, ...), c'est peut-être un peu plus discutable en économie avec les ratios, etc. Cela permet aussi une prise de note "nouvelle". J'utilisais par exemple l'indentation dans Word pour structurer les idées, un peu comme un mindmap en fait : Avec la facilité de pouvoir modifier l'indentation a posteriori. De même lors de l'étude, le fait de pouvoir facilement faire des tableaux (grâce aux copier / coller) est vraiment un gros plus :
  14. J'étais en reprise d'étude il y a 7/8 ans et je t'assure que la prise de note sur PC/Mac facilite grandement l'étude. Les notes s'éditent. Tu peux faire une recherche sur un mot clé. Si en même temps tu enregistres le cours, tu peux insérer un rappel (exemple : pas compris à 9h22, réécouter à telle autre heure), ...
  15. L'iPad, il faut quand même être très à l'aise pour de la prise de notes. Pour le reste, je reprécise ma position. Je trouvais l'idée de partir sur un ancien MacBook Air intéressante. Pour de la prise de notes, étant en plus entendu qu'il y a des Macs dans les salles de TP et qu'il y a un bon Mac à la maison, un "troisième" bon Mac est-il vraiment nécessaire ? Je ne le pense pas. Il y a (selon moi), deux bons choix. Soit un ancien MBA (avant les problèmes de claviers), acheté à un bon prix, soit un MBA très récent avec une puce "M" acheté par exemple avec la réduction étudiante. Mais je pense qu'à terme, l'achat d'un Mac neuf sera une erreur, car après être sorti des études, il faudra probablement une machine bien plus puissante. Qui peut évaluer la puissance des futurs MacBook Pro de 2025 ou d'après ?
  16. J'avais un MBA 13" mid 2014 avec 8 GB de RAM. Je le trouvais parfait pour la prise de notes : bonne autonomie, poids raisonnable. L'écran du 11", je le trouve vraiment petit. Par contre, fait attention, il y a eu des problèmes de clavier sur certains modèles plus récent. Toutes les gammes ont été touchées mais pas au même moment, du coup j'ai perdu le compte de quel gamme à partir de quel moment. Le MBA 2014 n'était pas touché par ce problème.
  17. Mais je persiste sur la solution "bis", surtout si c'est un événement unique, genre mariage.
  18. Sur le fond, je ne peux pas te répondre mais si je peux te donner un conseil (surtout si c'est dans un contexte pro) : prévois une solution de secours radicalement différente (un APN, ...).
  19. C'est une question difficile. Ce que je peux dire, c'est que les cartes graphiques offrent toutes un mode "compatible", minimal. Sans ça, on ne pourrait pas installer l'OS. Or, les drivers sont une composante de l'OS. On aurait donc un problème de l'oeuf et de la poule. Est-ce cela dont il s'agit ici ? C'est possible dans la mesure où "évidemment", sans les drivers adéquats, la carte ne peut fonctionner que dans ce mode compatible (malgré tout via un drivers mais sans aucune accélération matérielle). Des drivers spécifiques (ceux permettant d'exploiter les optimisations matérielles) pouvant être inclus directement dans l'OS (comme sur Mac pour les cartes AMD, pour lesquelles il ne faut pas télécharger de drivers) ou téléchargé depuis le site du fabricant de la carte.
  20. Je dirais oui et non, en fonction de ce que tu fais. Pour ce qui est du GPGPU, c'est à dire du calcul massivement parallèle, oui (en première approximation). Si je vois bien, chaque cœur GPU dispose de 128 cœurs "GPGPU". Donc le M1 Pro dispose de 2048 cœurs GPGPU ( = Cuda Core chez Nvidia). A titre indicatif, la GTX 970, offre 1664 Cuda Core. S'il faut calculer 100.000x la même chose, le M1 Pro va nécessiter 49 batchs (100.000 / 2048). Le M1 Max, c'est 4096 cœurs, donc il ne faut que 24 batchs (100.000 / 4096). A fréquence égale et si tous le reste suit (mémoire, bus, ...) alors oui, le M1 Max est 2x plus performante que le M1 Pro. Par contre, tout ce qui n'est pas "autant" proportionnel que le GPGU, c'est beaucoup moins clair. L'exemple typique, ce sont les fps dans un jeu. Parfois (on l'a vu dans une news récente), lorsque le CPU est le facteur limitant, les fps double (sur des tests 4K je crois), a contrario sur des résolutions moins exigeante pour le GPU, les autres facteurs deviennent limitants. Mais c'est exactement la même chose pour AMD et Nvidia.
  21. C'est typiquement une question d'ensembles et de sous-ensembles, comme avec les "ovales" en mathématique. Sur le papier, c'est une très bonne machine mais pour toute une série de raisons, elle se ferme de marchés entiers. Pour celui qui sait programmer et je parle ici d'une programmation relativement bas niveau, elle est très bien. Mais bon, il faut se farcir la programmation Apple (typiquement du "C") + la programmation Metal. Evidemment, il faut aussi avoir des raisons de faire tourner ces programmes. Pour les autres, soit ils utilisent des programmes Apple, soit ils espèrent que les développeurs ont (ou vont) porter leurs applications nativement sur OSX ARM. Ici, je ne fais que me répéter. Si après 2 ans, les applis ne sont toujours pas portées, pourquoi serait-ce le cas dans le futur ? Je vois une condition suffisante, c'est si le Mac Studio est un tel succès qu'une frange significative d'utilisateurs PC switchent. Mais est-ce la cas ?
  22. La messe est-elle dite ? "Coup de tonnerre : un libre choix des magasins d’applications sera instauré, permettant de contourner des acteurs dominants comme l’App Store d’Apple ou Google Play. Une victoire pour Spotify (géant suédois du streaming musical), tête de pont du mouvement engagé contre les commissions d’Apple. Fini aussi l’auto-promotion, procédé qui consiste à mettre en avant ses propres services lors d’une recherche (sur Google ou Amazon, par exemple).". Source : https://www.lesoir.be/432202/article/2022-03-24/leurope-siffle-la-fin-du-far-west-digital? (Grosso-modo un quotidien belge qui est l'équivalent de Libération).
×
×
  • Create New...