Jump to content

Sethenès

Members
  • Posts

    2,923
  • Joined

  • Last visited

Everything posted by Sethenès

  1. Jusqu'ici, mon avis sur les M1 n'a pas fondamentalement changé. Qu'il soit un succès est indéniable, mais auprès de qui ? Des convaincus de la pomme, certes, pour eux cette machine est un succès. De plus, vu les errements des années précédentes (Mac Mini asthmatique, l'épisode des claviers et enfin celui du Mac Pro 2019 au prix totalement démentiel) il y a un grand nombre d'utilisateurs qui avaient différé leur achat. Par contre, ce que je ne vois pas c'est la marque de ce succès au regard de l'ensemble des utilisateurs de "Personal Computers". Imaginons l'équivalent dans le milieu automobile. Certains acheteurs n'achèteront jamais que du français ou de l'asiatique mais d'autres mettent en concurrence les voitures de plusieurs marques quand vient le moment de remplacer leurs véhicules. Si une marque fait une avancée majeure, il y a forcément un rééquilibrage, et cette marque vendra plus tandis que les autres en vendront moins. Or ça, c'est bien une chose qu'on ne voit pas : des switchs. Rappelons-nous il y a dix ans, sur des forums comme Consomac et d'autres, les questions de switchers, question qui concernait principalement OSX. Il y avait même des chaines YT consacrées à cela (principalement autour de la 10.6). Mais aujourd'hui, voyez-vous des "néos" sur les forums, y a-t-il des signes tangibles de switch ? Or, je pense qu'il y a ici un phénomène de l'œuf et de la poule. Imaginons quelqu'un qui voudrait switcher et qui se renseigne. Imaginons qu'il soit fan de Starcraft. S'il tombe sur le blog de LYC ... ben ... comment dire ... je pense qu'il réfléchira à 2x avant de switcher. Car la vraie question est là. Pourquoi des studios de développement investiraient "plus" dans le Mac que ces dernières années s'ils ne constatent pas un glissement de leurs clients du PC vers le Mac ? Et dès lors pourquoi des utilisateurs switcheraient s'ils ne sont pas sûr que les programmes vont suivre ? C'est, comme je le disais, le problème de l'oeuf et de la poule avec encore un frein supplémentaire par rapport à la vague de switch de 2010 : Windows, qui constituait une base de repli en cas de blème a disparu de l'équation. La liste des softs mis à jour / compatible Rosetta 2 / non compatible, publiée il y a quelques temps par l'un des habitués du forum était quand même très instructives. D'accord, des jeux comme Wow sont portés, d'accord la suite office est portée. Mais qu'en est-il pour le reste ? Les Mac Mini "M1" (même si c'était des A14 revisités) de devs sont disponibles depuis près de 2 ans maintenant (avril ou mai 2020). Au fond, ce que je pense, c'est qu'à force de penser qu'ils ont toujours raison, Apple s'est coupée de pas mal de marché. Celui du jeu est un bon exemple, il y a aussi celui de niche pour certaines professions. Rappelons que le tenancier d'un autre forum français est kiné ou dentiste, je ne suis plus sur. Depuis plus de 20 ans son soft "pro" tournait sur Mac (je pense même qu'à l'origine, il ne tournait "que" sur Mac) mais voilà, la boite a décidé de jeter l'éponge avec la sortie des puces M. Depuis, il n'a plus d'autre choix que d'utiliser un PC. Et c'est ça l'impression que j'ai à propos de cet Apple Studio : du gachis. Une super machine, mais inexploitable pour une grande partie des clients qui auraient pu l'utiliser. Et je ne suis pas seul à le dire. Je connais quelqu'un qui a eu une machine en primeur (le M1 Ultra si j'ai bien compris) et qui l'utilise au quotidien depuis et il le dit : aucun soft n'est optimisé.
  2. La 3090 est à ma connaissance une carte bi-GPU basée sur deux 3080.
  3. Non, ce n'est pas équivalent. Je pense pour ma part qu'un utilisateur de base ne tire aucun profit de machines à plus de 4 cœurs / 8 threads (ou de machines 6 cœurs / 6 threads). Là où les performance monocoeur trouve leur pleine justification, c'est que les programmes qui tirent parti du multicœurs sont rares et très spécialisés. De plus, la plupart des utilisateurs n'utilisent qu'un seul programme gourmand à la fois. Les autres cœurs/threads sont-ils inutiles ? Non, il donne de la souplesse, évite les lags, ... C'est comme sur une voiture, les cœurs supplémentaires offrent de la reprise quand on en a besoin. Mais la plupart du temps, ce surcroit de puissance n'est pas nécessaire.
  4. Voici mes premières réflexions sur le Mac Studio (version de base). Je ne m'appesantirai pas sur les reproches que j'ai à propos de la puce M1 ni de l'approche SoC et ses conséquences. Je pense que tout le monde les connait. Ceci étant dit, je trouve le Mac Studio en version de base (petit clin d'oeil à Microsoft et à son Surface Studio ...) "intéressant". Tout d'abord, il nous éclairera sur les conséquences de l'absence d'un refroidissement efficace dans les laptop. Pouvons-nous attendre une augmentation de performance à CPU égaux ? C'est juste une question. En général chez Intel, les performances CPU/GPU mobile et desktop sont dans un rapport de 3 à 4 (on y reviendra). Ensuite, et vu la "taxe" Apple habituelle, je trouve son positionnement tarifaire "raisonnable". 32 GB, 512 SSD (ce qui n'oblige pas à payer pour le 1TB), enfin des ports et des ports à l'avant (on sent qu'Apple s'est débarrassée d'un gêneur), le choix du 10 GbE est peut-être plus discutable bien qu'Apple semble décidée à ne pas considérer les intermédiaires 2,5 et 5 GbE (intermédiaires qui sont de plus en plus présent dans le monde PC) mais bon on parle d'une option à 115 euros (voir le Mac Mini). Pour répondre à Pehache, je dirais que le Mac Mini permet de couvrir une gamme de prix de 1000 à 1600 euros environ en fonction des options. Donc proposer le grand frère à 2300 euros et avec les options de base dont j'ai parlé ne me parait pas (dans le monde d'Apple bien sûr) totalement exagéré. La machine qui me parait totalement mal positionnée, c'est le Mac Studio "Ultra". C'est le double du prix. En plus, il y a une option qui apparait totalement délirante en terme de prix. Passer du Mac Studio "base" de 24 à 32 coeurs (GPU) coute 230 euros. Opérer le même changement sur Mac Studio "Ultra" (2x24 coeurs > 2x32 coeurs) se fait pour la modique somme 1150 euros !
  5. Je partage l'avis général. Si l'usage principal est sous Windows, et compte-tenu des récents choix d'Apple, le Mac n'est pas la meilleure option. Evidemment dans le monde Mac, tout est simple à commencer par le choix : Trois modèles de portables, quelques options et c'est emballé. Dans le monde PC, le choix est beaucoup plus vaste. Personnellement, je me limiterais à 3 marques (dans l'ordre alphabétique) : Dell, HP ou Lenovo (anciennement IBM + pas mal de fusion). Souvent, il existe 3 gammes de PCs (je ne parle pas de modèles, mais de gamme). La première est celle pour consumer. On la retrouve en grande surface. Je ne dis pas que ce sont de mauvaises machines, mais l'accent est mis sur les besoins des particuliers (Windows Home/Famille plutôt que Pro par exemple). Les deux suivantes sont celles pour professionnels avec souvent une gamme aux prix contenus et enfin une gamme plus "select" qui rappelle les ordinateurs haut de gamme d'Apple (n'oublions pas qu'Apple propose quand même un MBP dont le prix de base est de 3849 euros !). Il y a aussi une 4ème gamme dont je ne parlerai pas plus, c'est celle des "workstation". Elle se reconnait aisément car il est souvent possible de prendre un processeur Xeon en option. Le premier choix à faire est donc de déterminer la gamme de PCs qu'on souhaite ou dont on a besoin. Ensuite, au sein de cette gamme de choisir son modèle (taille d'écran, ...). Ici, au hasard un comparateur de portable HP : https://www.hp.com/fr-fr/shop/list.aspx?sel=NTB On n'est pas surpris de voir que les modèles Victus, Omen qui sont équipés de cartes graphiques de gamers "RTX 30.." sont proposés avec Windows Famille (Home) alors que les HP Pavillon sont proposés avec Windows Pro. Si dans les options de gauche, on prend "utilisation : professionnelle", "format : ordinateur portable" et "mémoire : 16 GB", cela limite le choix à 7 PCs. L'analyse des noms et des prix est assez éclairant. Il y a 2 "no named" (HP 250 et H 255) à 886 et 1102 euros, Il y a 3 "pro book" entre 1173 et 1342 euros Il y a 2 "Elite book" à 1837 euros, un 14" et un 15". Attention, je ne dis pas qu'il faut choisir un de ces PCs, mais ce que je veux illustrer ce sont les grandes "gammes" de PC. Evidemment si on achète un PC 15,6" à 1100 euros, alors que le premier prix en MBP 14" est de 2249 euros ... (2749 euros pour le 16") il ne faut pas s'attendre à avoir tout à fait la même machine ...
  6. Merci pour le partage. Est-ce facile de rentrer dans AppleScript ? A lire le code, j'ai l'impression qu'il y a pas mal de prérequis et que les shell scripts "habituels" sont plus facile à prendre en main. $home me semble quand même plus accessible que "path to home folder as string".
  7. Oui mais si tu touches à ça ... parlons véhicule et de qui a la plus grosse ...
  8. Je suis bien d'accord. Mais cela pose alors une question beaucoup plus générale. Les sites d'information "grands publics" doivent-ils encore suivre "l'évolution" des CPU ? Mais sur le fond tu as raison, si il y a 20 ou 30 ans, la vitesse de remplacement des machines dans les grosses boites (cycle de 3 ans, calé sur la durée d'amortissement comptable) étaient vus par certains comme beaucoup trop long (je me souviens d'avoir du jouer au "disk jockey" avec le "nouveau" PC du nouveau qui allait à un ancien, et le PC de l'ancien à un moins ancien et finalement le nouveau récupérait le vieille rickette dont plus personne ne voulait), aujourd'hui la durée du cycle est allègrement passé à 4 voir même 5 ans (je parle en moyenne). Ceci dit, on parle de suivi des nouveautés, donc je pars de l'idée que ceux qui suivent ces news (et qui les commentent) ont un besoin de "plus" de performance. Et c'est là où effectivement, pour eux, à moins bien sûr qu'ils aient des besoin très particulier (mais en général dans ce cas là, on le sait), les performances monocoeur sont centrales. Mais là aussi, qui a encore aujourd'hui des "gros lags" ou doit attendre même 30 secondes pour qu'une tâche s'accomplisse ? Celui qui a fait un macro excel en "recordant" les étapes. Oui, peut-être. Encore que s'il demandait à un spécialiste de lui programmer le bidule, l'utilisation des fonctions tels que les offset ou de ne fut-ce que masque le rafraichissement, diminuerait le temps d'un facteur 10 au moins (voir rendrait la macro presque aussi rapide que du compilé). Enfin, reconnais que très souvent, je relativise les gains. 10% de gain de performance, ce n'est jamais que de faire en 9 secondes ce qu'avant on faisait en 10. C'est aussi pour ça que je me montre insistant en particulier sur le multicœurs parce quelqu'un qui ne se fierait qu'à ces chiffres et qui disons aurait remplacé une machine de 2013 par une de 2018 pourrait être déçu du peu de gain observé.
  9. Je ne dis pas que la multiplication des cœurs est une hérésie. Pour certains usages, c'est utile. Mais il faut raison garder. Un CPU avec 128 threads, ça se monte dans une machine qui peut les alimenter. Déjà, il est impensable pour moi d'avoir moins de 1GB de RAM par threads. Cela implique une machine ayant un minimum de 128 GB (8 x 16 GB puisqu'il y a 8 channel). Ensuite, question stockage ... il faut que ça suive aussi. Les Threadripper disposent de 128 lignes PCI Express 4.0. Il est donc possible "théoriquement" d'en garder 8 pour un GPU, mettons une 40aine pour des cartes réseau, il reste encore de quoi connecter 20 "disques" NVME en PCI-E 4.0 4x ! Je sais bien que de telles cartes-mères n'existent pas, mais c'est pour donner une idée du genre de config qu'il faut pour exploiter de telles possibilités. Pour moi, je ne vois qu'un seul usage à ces puces : le monde serveur. Toute la question est de savoir si cette multiplication des cœurs est la seule réponse des fondeurs. Ce que je prétends, c'est que c'est inutile à la toute grande majorité d'utilisateur et que si on ne leur propose que ça, c'est de la poudre aux yeux ! Et c'est justement ce qu'il s'est produit dans le passé. Pendant combien de temps, tout le monde s'est extasié devant la progression de la puissance des CPU, alors que les fondeurs ne faisait qu'ajouter 2coeurs/4threads au modèles précédents ? J'estime qu'au delà de 4 cœurs / 8 threads (ou 6 cœurs / 6 threads), c'est totalement inutile à une très large majorité d'utilisateurs. Pourquoi ? Car les programmes eux-mêmes n'utilisent pas plus de threads avec le temps. Soit c'est parce que c'est impossible (certaines problématiques ne peuvent pas se paralléliser), soit c'est la fainéantise des programmeurs. Mais cela ne change rien au problème. Quant à la question que tu poses à propos des M2, elle est centrale pour moi. Tout d'abord, je la pose "doublement à Intel" puisque je m'interroge à la fois sur les prochaines générations d'Intel, mais aussi pour les "petits" modèles de la génération actuelle. Car pour le moment, on n'a que le bench d'une config survitaminée et surtout ... surrefroidie lorsqu'elle est utilisée en monocoeur ! Maintenant, si le M2 garde les mêmes perfs mais fait "encore" mieux dans l'autonomie, pas mal d'utilisateurs risquent d'y voir une avancée. Mais en terme de performance pure (et en particulier pour les modèles desktop), les performances monocoeur du M2 seront cruciales.
  10. Pour la seconde question, c'est plutôt dans l'autre sens que cela se passe. Comment un OS peut-il "à l'avance" déterminer qu'un process va demander de la puissance ? Un process, c'est un programme avec des boucles, des tests et donc potentiellement des conditions de terminaisons anticipées. Alors, certes si un programme comporte des instructions pour le FPU (le coprocesseur mathématique ou floating point unit), l'OS sait qu'il ne faut le confier qu'à certains coeurs qui disposent d'un FPU (je crois par exemple que c'est justement quelque chose qui manque à l'hyper-threading). Mais en dehors de cela ? Ce dont il faut aussi se rendre compte, c'est qu'un très grand nombre de process tournent en permanence "en parallèle". Sur Windows, il suffit d'ouvrir le gestionnaire de tâches. Le mien indique 6 Apps, 125 "background process" et 106 " Windows Process". Sur OSX, il y a également un paquet de tâches/process qui tournent en permanence. Dans la mesure où aucune de ces tâches/process n'est gourmande, l'ensemble n'occupe que 6-7% de la capacité CPU totale. La toute grande majorité des applications, ne vont pas se poser trop de question et souvent il n'y a qu'un seul process, sauf si les programmeur ont intégré du multithreading à l'application. Mais souvent, il s'agit (par exemple) de réindexer des listes à l'écran. Par exemple quand on ouvre le Finder/Explorer, si l'application reste réactive pendant que les listes se remplissent, c'est un signe qu'il y a (au moins) 2 threads. Un pour l'appli et l'autre qui cherche les données à ajouter à la liste. Donc, chaque application va vivre sa vie sans se soucier des autres. Elle va demander de la mémoire à l'OS, elle va démarrer des process et c'est l'OS qui va se débrouiller pour satisfaire les demandes des différents programmes. Si on en démarre trop, ou de trop gourmand, il y aura juste des ralentissements. Alors évidemment, certaines applications tout à fait particulière (je pense notamment à OpenCL ou à Cuda) vont elle faire l'inventaire complet des ressources (CPU, cores/threads, GPU, nombre de GPU, unité de calcul par GPU, etc.). En fonction des réponses et de ce que le programmeur a choisi, là, il peut y avoir une optimisation plus poussée. Je ne serais pas surpris que certains programmes d'encodage vidéo disposent également de ce genre d'option (mais dans ce cas, c'est plutôt l'utilisateur qui va pouvoir en décider via les menus). Pour ce qui est de la première question, oui je ne le cache pas, Apple m'a globalement déçue. Je ne crache pas sur la multiplication des cœurs. Mais cela n'a rien d'une nouveauté. Si tu prends les Mac Pro camions d'août 2010, ils disposaient déjà de Xeon 6 cœurs / 12 threads. Ce n'est qu'en début 2015 que les premiers i7 "Extreme Edition" ont pu bénéficier de cette nouveauté avec qu'elle soit proposée 2 ans plus tard dans toute la gamme des i7. Donc en 2016-2018, je ne sais plus quand Intel a fait sauter le verrou (i7 non "EE" = max 4 cœurs/8 threads) qu'ils maintenaient jusque là, ce n'était pas à proprement parlé une "nouveauté" puisque les "petits Xeon" (ceux du Mac Pro) disposaient déjà de CPU à 6 cœurs depuis 7 ans. Et je ne sais pas depuis quand les "gros Xeon" (ceux des serveurs) en disposaient. De plus, à la limite, ouvrir des i7 à 6 cœurs / 12 threads mais de proposer par la suite des 8 / 16, 10 / 20, 14 / 28 et même des 18 cœurs / 36 threads, m'amène à nouveau à me demander qui peut utiliser de telles configurations. Je ne dis pas que ce n'est utile à personne - mais - ce que je dis, c'est qu'augmenter significativement les performances monocoeur, ça par contre, c'est utile à beaucoup (mais alors beaucoup) plus de monde ! Et même dans le cas d'une machine qui héberge des VMs. Pourquoi ? Parce que si un "gros" process ne tourne que dans une des VMs (et qu'il n'y a rien de très gourmand qui tourne dans les autres VMs), alors ce process gourmand profitera "aussi" à plein du gain de performance en monocoeur offert par le CPU !!!
  11. Qui décide d'allouer des ressources aux programmes qui en font la demande ? Qui, si ce n'est l'OS ? Donc si Cinebench demande et qu'il reçoit, toutes les autres applis qui demandent recevront aussi. Qui attribue tel process à tel cœur ? Qui, si ce n'est l'OS en déterminant les process les plus gourmands et en les assignant aux cœurs les plus performant ? En plus, ici, il s'agit de prédictions. Même pas sûr que l'OS puisse faire cela, peut-être est-ce encore plus simple que je ne le pense et que les process sont simplement assignés prioritairement aux cœurs les plus performants et que dès que ces 4 cœurs ont un process en cours, le 5ème est assigné au cœur économe ? A partir de ce moment là, tout est dit. Pourquoi l'OS se priverait d'assigner des process aux cœurs économes puisque tout ce qui est fait, est fait. En plus, cela semble très logique puisqu'en situation de "basse consommation", l'OS ferait simplement l'inverse : d'abord assigner les process aux cœurs économes et puis seulement, assigner le 5ème process au cœurs gourmands ? Et c'est justement tout le sens de ma question. Il faut avoir des sacrés besoins pour saturer les 8 cœurs du M1 pendant plus que quelques secondes par jour (et déjà rien que ça, je serais curieux de voir le % d'utilisateur qui parvient à faire ça même une fois par semaine). Alors l'utilité des 10 cœurs pour le plus grand nombre ... Désolé, je n'avais pas lu la dernière intervention de Pehanche.
  12. Attention aux "certitudes" ... ici, on voit bien l'usage des coeurs du M1 pendant un test avec Cinebench. https://youtu.be/ePbT4pDZzTA?t=37
  13. A vérifier, mais de mémoire, qu'ont-ils fait ? Ils ont juste multiplié les cores. Avant, seuls les modèles "K" bénéficiaient de 6 coeurs et plus. Après, même les simples i7 ont été proposés avec des 6 coeurs (+HT), 8 (+HT). Et je suis désolé, mais pour la plupart des utilisateurs, passer de 6 cœurs à 12 n'apporte strictement rien. Mais vraiment rien. Mais comme ça arrangeait tout le monde, Intel, les constructeurs de PCs et que les contre-pouvoirs (journalistes en tête) n'ont pas été assez mordant ... ben on a eu ce qu'on a eu. Et honnêtement, j'ai l'impression qu'on est de nouveau reparti dans la mauvaise direction. Alors certes, les M1 Pro et Max apportent des avancées graphiques intéressantes mais au niveau CPU ... c'est de nouveau la multiplication des cores. Sérieusement, qui parvient à saturer les 8 cœurs du M1 ? Et je parle d'un "minimum" d'heures par jour car franchement attendre 10 secondes ou 8 pour un résultat ... c'est chou vert et vert chou !
  14. Je suis assez d'accord. Je crois aussi qu'il faut se départir de l'idée qu'Intel en a "plein" sous la pédale et qu'ils ont pris leurs temps en rationnant les avancées, ou en tout cas pas plus que d'autres concurrents dans des situations semblables. Je me souviens que les Smartphone Samsung ont disposé de la 5G au moins deux générations avant les iphones. Et c'est habituel chez Apple. Pensons aux technologies telles que : WiFi 6, 5G, PCI 4.0, ... Au contraire, le fameux mur quantique, il est là et bien là. Tout le monde sait qu'il y a une limite physique. Alors les ingénieurs rusent pour la contourner et sans cesse repousser les possibilités mais Intel comme les autres y est confrontée. Si Pehache ne l'avait pas fait, j'aurais rappelé "l'erreur" d'avoir nommé des financiers chez Intel, mais je reste convaincu qu'il n'y a pas eu d'approche "cynique" de la part d'Intel et de volonté délibérée de brider l'innovation. Intel savait par exemple bien qu'Apple devait avoir des prototypes de Macs sur des puces ARM et le risque d'une possible perte de ce marché. Brider volontairement la croissance des x86, revenait à encourager Apple dans l'abandon d'Intel au profit de ses propres puces.
  15. Je sais que c'est ce que tu penses sur le caractère volontaire d'Intel. Mais reconnais-le, cela reste de la spéculation. Attention, mes propos sont également spéculatifs, mais ici c'est surtout l'avenir qui nous le dira. Intel avait quand même AMD comme concurrent, AMD qui parvenait à tailler des croupières à Intel dans certains segments. C'est exact. Ceci dit, je nuancerais quand même le propos. Le MBP Pro M1 Max est à 3849 euros. Pour ce prix là, chez Dell tu as un Alienware avec une RTX 3080 mobile qui offre pratiquement le double de performance par rapport au GPU du M1 Max (18,98 vs 10,26). Sources : https://www.techpowerup.com/gpu-specs/geforce-rtx-3080-mobile.c3684 https://appleinsider.com/articles/21/10/19/m1-pro-and-m1-max-gpu-performance-versus-nvidia-and-amd#:~:text=The 16-core GPU in,5500 in terms of performance.&text=Against game consoles%2C the 32,of up to 12 teraflops. https://www.dell.com/fr-be/work/shop/ordinateurs-br-portables/sr/laptops/ordinateur-portable?appliedRefinements=31461,15604,15605,11832,6105 Mais effectivement, on n'est pas dans les mêmes gammes de consommation, clairement. Par contre pour le M1 de base, il existait déjà un an avant sa sortie des GPU (AMD, j'insiste) qui était leur équivalent et qui aurait par exemple pu équiper le Mac Mini 2018. Enfin, il faut savoir qu'Intel a annoncé (en principe pour ce trimestre) la sortie de nouvelles générations de GPU. Bien sûr tant que rien n'est sorti, il faut rester prudent mais si les prévisions "moyennes" sont rencontrées par ces cartes, cela pourrait bouleverser la donne. Bien sûr, outre la puissance (et le rapport performance / Watts), c'est surtout le pricing qu'il faudra analyser (ou pas, s'ils fument la moquette).
  16. Je profite de ce sujet pour commenter les récents tests des CPU Intel. Pour moi, ces tests apportent plus de questions que de réponses. Jusqu'il y a deux ans environ, Intel n'a pas été capable de dépasser la barre des 1600 en monocoeur. La sortie du M1, avec en gros des performances supérieures de 10% (pour un résultat aux environs de 1760) n'est donc pas passée inaperçue. Aujourd'hui, Intel propose enfin des PCs qui dépassent les 1800. Aussi, je me pose plusieurs questions : 1/ Les performances monocoeur annoncées le sont pour des monstres de puissances. Qu'en sera-t-il dès lors sur les puces i7, mais "d'entrée de gamme" (voire même les i5) ? Ces méga-puces choisies pour les benchs sont naturellement refroidies par des systèmes extrêmement efficace (radiateurs proéminent, water-cooling, ...), dans quelle mesure un refroidissement plus contenu permettra malgré tout d'atteindre de bonnes performances monocoeur. 2/ Les "nouvelles" technologies mises en place par Intel sont-elles les seules responsables de ce nouvel état de fait ? Corollaire évident, d'où vient ce soudain surcroit de puissance ? Au contraire, Intel a-t-elle du revoir ces choix pour "suroptimiser" les performances monocoeur, au détriment d'autres aspects ? Il y a une troisième option qui voudrait qu'Intel ne se soit pas trop souciée de ces performances, mais je reste sceptique. 3/ Avec évidemment "la" question qui fâche : est-ce qu'Intel en a encore le sous le pied pour des évolutions futures ? Evidemment, ces puces qui ont rattrapées et dépassées toutes les puces M1 en performance monocoeur m'amène à questionner Apple : 1/ Tout d'abord, une première constatation : qui n'avance pas ... recule. A ce sujet, remarquons en particulier que les performances monocoeur des M1, M1 Pro et M1 Max sont identiques. 2/ Et même question pour Apple que pour Intel : est-ce qu'Apple en a encore sous le pied pour des évolutions futures ?
  17. Du nouveau ... Apple s'est tournée vers l'instance d'appel (9ème circuit) et a obtenu le gel de l'injonction décidée par la juge Rogers jusqu'à ce que la procédure en appel soit terminée. Source : https://www.zdnet.fr/actualites/apple-vs-epic-un-sursis-pour-la-modification-des-regles-de-l-app-store-39933863.htm Je me posais justement la question de la durée exacte donné par la cour à Apple et The Verge me semble plus précis, je cite "The stay, issued Wednesday afternoon, does not reverse the earlier ruling but puts enforcement on hold until the appeals court can fully hear the case, a process that will likely take months. “Apple has demonstrated, at minimum, that its appeal raises serious questions on the merits of the district court’s determination,” the ruling reads. “Therefore, we grant Apple’s motion to stay part (i) of paragraph (1) of the permanent injunction. The stay will remain in effect until the mandate issues in this appeal.” Ce n'est pas clair, c'est soit jusqu'à la fin des auditions (fully hear), je pourrais donc imaginer que le juge d'appel statue en deux temps. Soit jusqu'au prononcé du jugement d'appel car j'ai difficile à comprendre la portée juridique de l'expression "until the mandate issues". Source : https://www.theverge.com/2021/12/8/22814147/epic-apple-app-store-injunction-paused Le document de jugement ne fait que deux pages et ne contient même qu'une seule page "de fond". Je pense que la cour d'appel a plutôt pris une mesure "défensive" qui pourrait se résumer à "si on suspend, on ne fait rien de mal et on se donne le temps de juger sur le fond à l'aise.". Source : https://s3.documentcloud.org/documents/21150555/order.pdf
  18. Je ne l'ai jamais fait sur aucun RAID 5 et donc a fortiori pas sur le Syno non plus, à vérifier. Maintenant, en principe, si DSM te laisse faire la manip ... mais "re"vérifier.
  19. Excellente idée. D'autant plus que tu peux toujours revenir sur cette décision si le besoin s'en faisait sentir. De plus, depuis DSM 7, le switch est effectivement automatique en cas de détection d'un pépin par l'OS, ce qui minimise le temps de dégradation du RAID que Pehache évoquait. J'ai été surpris de constater que jusqu'à la version 6, cette procédure restait à charge de l'utilisateur quand bien même y a-t-il un disque spare. P.S. ; je suis toujours en 6.2 ...
  20. Les achats ont été phasés. D'abord le NAS et une extension avec 28 disques et ensuite dans un second temps, un extension supplémentaire avec 14 disques. C'était des investissements budgétés.
  21. Pour le premier point, effectivement le RAID est en plus dégradé pendant le phase de reconstruction. Le deuxième point est techniquement impossible parce que ce que tu fais, c'est de "sizer" les arrays RAID en fonction des besoins initiaux. Et puis au cours du temps, tu rajoutes progressivement des disques aux RAIDs qui sont presque full. C'est d'ailleurs l'énorme avantage du RAID 4 puisque les deux disques de parités sont fixes (ce sont les deux premiers) et que lors d'un ajout d'un nouveau disque au RAID, celui est préparé et ne contient que des 0 ... ce qui laisse la parité inchangée. C'est vrai aussi sur un RAID 5, mais là, comme les parités sont distribuées, il faut malgré tout les redistribuer et donc déplacer au moins 1/N blocs de parité (ou N = nombre de disques du RAID). Sans compter que justement, les disques spares sont attribués au RAID qui a un disque défectueux et qu'eux sont ben ... là où ils sont. Dans le cas du NetApp, la taille maximum du RAID est de 14 disques (qui d'ailleurs n'a rien à voir avec la taille des armoires qui font aussi 14 disques) puisque tu peux panacher et ajouter des disques supplémentaires provenant soit de l'unité de base (14 disques) soit d'une extension.
  22. Je suis ennuyé, mais pour moi, c'est clairement une très mauvaise idée. Effectivement le wiki français suggère de mélanger des disques de même modèles et de bains différents mais je préfère l'argumentation du wiki anglais qui n'évoque pas du tout l'idée d'un lot défectueux mais plutôt celle d'une durée de vie et aussi d'une vie similaire. Par exemple, un jour la clim de notre petit centre est tombée et la t° est montée à un tel point qu'on ne pouvait pas entre dans la pièce. Littéralement. On a ouvert les deux portes pour faire courant d'air, on a stoppé tout ce qu'on pouvait mais il est évident que tout à pris un "coup" (UPS, CPU, Disques, ...). En raison de ces deux faits cumulés (même durée de vie et même "vie"), les statistiques réelles montrent que la probabilité que 2 disques lâchent dans la même heure est 4x plus importante que le modèle théorique (loi exponentielle) ne le prédirait. C'est 4x plus mais ... 4 fois pas grand chose, ça reste pas grand chose. Source : Lien . Précisons encore qu'aucun des deux wikis n'évoque l'idée de disque de modèle (a fortiori de constructeur) différent. Ensuite, on peut raisonner comme en math en extrapolant aux limites le raisonnement. Au taf, on avait un NAS en RAID 4 (avec 2 disques de parités par array RAID), ce qui fait que si 3 disques lâchent, c'est la cata. Donc au maximum on aurait pu avoir 2 disques de chaque type. Sur un NAS de 42 disques, il est évident que de trouver 21 paires de disques "comparables "mais de fournisseurs différents c'est impossible. Par contre, ce qui est vrai, c'est que si les disques font initialement partie de la même commande, ici on a ajouter l'armure d'extension (pour passer de 28 à 42) après quelques années, donc les disques sortaient en principe d'un autre bain. Malgré tout, encore une fois disposer de disques de 21 bains différents est tout simplement impossible à réaliser dans la pratique. Nous n'avions "évidemment" pas un seul RAID sur les 42 disques (on devait en avoir 4 ou 5 arrays contenant entre 5 disques et 14) Plus fondamentalement, c'est (selon moi) promouvoir l'idée que le RAID est une solution qui augmente le "data integrity" (qui augmente l'intégrité des données) alors qu'au niveau professionnel, le RAID est surtout un outil de "data availibility" (qui augmente la disponibilité des données). Car il y a ici aussi une confusion. Le RAID, c'est du RAID 0, du RAID 1, 4, 5, 6, 10 et combien d'autres combinaisons plus complexes. Ici, ce que est toujours implicitement sous-entendus, c'est qu'on parle du RAID 5. Je me place bien dans cette utilisation particulière du RAID. Quand je parle de disponibilité, je peux prendre l'exemple des machines Unix que j'administrais il y a 20 ans sans RAID et sans hotswap. Sur une telle machine, un crash d'un disque aurait occasionné des indisponibilités partielles ou totales de 48 h (livraison du disque en J+1, arrêt et restore de la machine dans la nuit de J+1 à J+2). Alors qu'avec un RAID, il n'y a aucune interruption. Sur le fameux NAS à 42 disques, j'ai eu 2 défaillances qui se sont produites de nuit. Mais le système a automatiquement détecté le problème, pris l'un des disques spares (de réserve) et à commencer le reconstruction. Le lendemain, un technicien est venu avec le nouveau "disque" et à simplement remplacé (sans interruption, grâce au hotswap) le "disque" défectueux par un nouveau qui a simplement rejoint la liste des spares. Evidemment, l'OS de nombreuses machines est installé sur un RAID 1 (mirroring). Ceci dit, en plus de 20 ans, je n'ai jamais mais jamais eu le cas où il a été possible / nécessaire de faire usage de cette sécurité. A titre indicatif, si je ne dis pas de bêtise, c'est ce qu'il se passe dans les Syno. Il y a un volume caché au début de chaque disque qui est "utilisé" par le Syno et ce petit volume contient tout le système et tous les paramètres qui sont donc présents autant de fois que vous avez de disques. Même sur un disque "RAID 5" il y a ce petit volume caché en RAID 1 en début de disque.
  23. De très bonnes nouvelles ! On croise ce qu'il y a moyen de croiser
  24. Honnêtement, je ne sais pas que te conseiller. De base, je resterais sur des Ironwolf mais juste parce que c'est la même marque que celle que tu as actuellement et que j'imagine que le temps de réveil sera le plus proche de tes disques actuels. Et effectivement, je partais de l'idée de remplacer le disque suspect et pas toute la grappe. J'ajoute que j'ai déjà du aussi mélanger des disques légèrement différents. J'ai remplacé un WD RED de 3TB par un 5 et un autre par un 6 TB, même si c'est avec ces disques là que j'ai eu le plus de prob (le 5 a lâché). J'ai aussi remplacé des disques 3 TB Red par des 3TB acheté 3 ans plus tard. Et quand on sait comment WD a agit ... là aussi, j'ai du remplacé un plus récent (qui avait un max de LOAD_CYCLE_COUNT) par un autre. Mais bon, quand on voit comment WD a "joué" avec ses gammes ... je suis sûr que c'est la source de mes 2 problèmes de disque avec eux sur un total de 18 disques RED. Et ça, j'ai quand même du mal à l'accepter même si je fermé les yeux et croisé les doigts quand j'ai acheté les derniers RED Plus (je n'ai pas de disques 7200 rpm).
  25. Question difficile. D'abord quel est le "vrai" risque ? En fait, c'est qu'il y ait une trop grande différence (typiquement au démarrage, au réveil, ...) entre les temps de disponibilités des différents disques. Dans ce cas, le système peut suspecter un problème et lancer d'autorité un check de parité (consistency check). Ce test implique la lecture de tous les secteurs de données, le calcul de la parité et la comparaison avec la parité inscrite sur le secteur de parité. Autrement dit, le processus passe tous les disques en revue du premier au dernier bit. Cela entraine un peu d'usure supplémentaire des disques ainsi qu'un ralentissement pendant toute la durée du processus. Evidemment, si cela se produit de manière récurrente (ce ne sera pas plusieurs fois par jour, mais peut-être quelques fois par trimestre ou par mois), la probabilité d'un "vrai" couac est augmentée. Ici le problème, c'est que même si tu prends des Ironwolf, après 6 ans (ton NAS date de 2015, c'est ça ?), ce risque d'avoir une différence sensible dans la durée de démarrage me parait exister. Enfin, la translation des disques d'un NAS à l'autre est toujours un peu tricky ... donc vérifie bien que tes backups sont à jour. Et j'imagine que ...
×
×
  • Create New...