Jump to content

pehache

Members
  • Posts

    7,839
  • Joined

  • Last visited

Everything posted by pehache

  1. Encore une fois : sur un disque réseau. Il est acquis que TM n'est pas fiable dans ces conditions (ce qui est inacceptable pour un outil de backup, on est d'accord). Il n'empêche qu'en local sur disque externe TM est fiable jusqu'à preuve du contraire, et par ailleurs simple à utiliser et pratique.
  2. Petite compilation qui peut être utile... Composant Physique Terminologie Nvidia/Cuda Terminologie AMD/OpenCL Terminologie Apple Analogie CPU Arithmetic Logic Unit (ALU) Floating Point Unit (FPU) Cuda Core Streaming Processor ? ALU/FPU Puce élémentaire (1) Typiquement composé de 8 ALU/FPU, d'un bus d'instructions, et de registres Processor ? Core ? Execution Unit Core (3) Composé d'un seul ALU/FPU, de registres, et de mémoire cache L1 Groupe de puces élémentaires (2) Typiquement composé de 8-32 puces, et d'une petite mémoire partagée MultiProcessor Compute Unit Core CPU composé de plusieurs Cores, et de mémoire cache L2 Carte Graphique Typiquement composée de 8-32 groupes, et d'une grosse mémoire globale GPU device GPU device GPU device (4) Carte mère avec plusieurs CPU et une mémoire cache L3 (1) dans une puce élémentaire de GPU, tous les ALU/FPU exécutent la même instruction en même temps, sur des éléments de tableaux différents (modèle SIMD) (2) en pratique dans l'API Cuda on fait exécuter le même code sur tout un groupe (3) Malgré qu'il contienne un seul ALU/FPU, un coeur de CPU est *beaucoup* plus complexe que son équivalent GPU. Il y a un pipeline d'instructions qui peuvent être exécutées dans un ordre différent de celui où elles arrivent, des algorithme de prédiction sur la prochaine instruction probable à exécuter, de la mémoire cache, etc... (4) Chez Apple le GPU accède directement à la RAM unifiée, il n'y a donc à priori pas de mémoire globale dédiée à la carte
  3. Il faut quand même te dire que 90% des utilisateurs de TM l'utilisent probablement en USB, parce que la proportion de gens qui ont (avaient) une borne AirPort avec disque ou plus encore un NAS est quand même très réduite dans le grand-public. Décourager les gens d'utiliser TM en USB alors que c'est une solution intégrée et hyper simple, et alors que trop de gens ne font pas de backups, c'est quand même dommage.
  4. Avant de réinstaller, quand même tenter les procédures classiques (qui souvent ne font rien, mais parfois si) : Diagnostic matériel : https://support.apple.com/fr-fr/HT202731 Réinitialisation SMC et PRAM : https://fr.ifixit.com/Tutoriel/Comment+réinitialiser+le+SMC+PRAM+et+NVRAM+sur+un+portable+Mac/113252
  5. Il a quand même fallu plusieurs message pour que tu précises "peut-être que en réseau", laissant penser avant ça que TM n'était jamais fiable.
  6. Non mais stop avec ce genre d'affirmation... Ah, voilà, déjà ce n'est pas la même chose. TM en sauvegarde réseau on est d'accord que c'est buggué (ce qui est quand même grave pour un outil de backup), mais sur disque externe en local je n'ai jamais eu le moindre problème avec (j'ai restauré/migré plusieurs machines avec). Les perfs sont pourries, c'est sans doute programmé avec les pieds, mais en local ça fait ce que c'est censé faire.
  7. C'était l'heure de l'apéro ?? Comme dit @LolYangccool ce n'est pas la dernière génération de Core ix. Alors elle consomme plus, oui, mais une TDP de base de 45W ce n'est pas non plus un radiateur. Bon, ça monte à 115W en mode turbo, là oui ça comme à faire, mais à voir si les chiffres multicoeurs du bench sont obtenus en mode turbo ou pas. Et puis il faut arrêter de penser que Apple est intouchable. Ils ont bénéficié d'un effet Wahou! mérité à la sortie du M1 et de ses déclinaisons, mais ça fait bientôt 2 ans et demi et pour l'instant ils marquent un peu le pas : le M2 n'est qu'une évolution mineure, TSMC galère à produire les M2 Pro/Max en masse, le M1 Ultra a des performances moins exceptionnelles qu'attendues à cause des communications internes complexes à gérer, et la mise au point d'un M1 ou M2 "Extreme" semble difficile pour les mêmes raisons, au point que le Mac Pro ne sortira "que" avec une Ultra. Apple a pris une route où monter en performances n'est pas aussi simple qu'il y parait, le problème inverse d'Intel en somme, qui n'a aucun mal à produire des puces ultra puissantes. L'article n'analyse pas réellement la situation. Intel fait des progrès en perfs/watt de génération en génération, mais jusqu'à maintenant ils ont préféré augmenter les perfs à conso égale plutôt que réduire la consommation à perfs égales. Sur le 13900H qui est le successeur du 12900H évoqué ici, la fréquence monte de 8% pour une même TDP.
  8. Ou, soyons fou, développer l’équivalent
  9. Sans être maniaque, je prends relativement soin de mon matériel. Mais jusqu'où aller ? A un moment il faut quand même incriminer aussi la qualité (de conception et de fabrication). Un matériel doit être conçu pour supporter l'usage normal qui va en être fait, et un câble destiné à des appareils mobiles devrait prendre en compte que l'usage mobile justement n'est pas aussi reposant que l'usage en fixe à la maison. Et ce qui paraitrait acceptable avec un câble à 5€ ne l'est plus du tout avec un câble à 20€. Le cas que je montre est extrême (et n'est pas que lié à un problème de contraintes, ce sont certainement les variations de température qui ont donné ce résultat), mais de façon générale à soin égal je n'ai jamais vu autant de problèmes qu'avec les câbles Apple (câble de charge ou d'écouteurs).
  10. Dorénavant je vais les enduire tous les soirs d'un onguent à la cire d'abeille, et les ranger sur un petit coussinet dans une boîte à cigare à l'hygrométrie contrôlée.
  11. Ah si, complètement si le code est "CPU-bound". Certes, en augmentant la finesse de gravure Apple pourrait augmenter la fréquence donc les perfs à consommation égale. Mais les concurrents aussi (Intel a un peu merdé dans la course à la finesse, mais ils se reprennent).
  12. Augmenter les perfs sans augmenter la fréquence à architecture égale, ça passe par multiplier les cœurs. A première vue les perfs maximum et la conso sont proportionnels au nombre de cœurs, mais je pense que ce n'est pas si simple que ça : en ajoutant des coeurs on doit allonger les chemins de communication, ce qui occasionne des pertes thermiques supplémentaires. On voit bien que déjà que sur la puce M1 max les communications entre les coeurs posent quelques problèmes et limitent les perfs.
  13. Franchement rien fait d'extraordinaire avec ce câble. Je pense que la chaleur de l'habitacle en été et le froid en hiver ont eu raison du plastique qui est devenu cassant. Ce qui signe un plastique d'une qualité pas top.
  14. Indépendamment des problèmes de bande passante d'accès à la RAM, il faut aussi rappeler que la consommation d'un CPU croît avec le carré de la fréquence de fonctionnement (alors que les perfs croissent linéairement). 20% de perfs en plus en overclockant se paient par 44% de conso en plus.
  15. Un câble Lightning officiel Apple après moins de 5 ans dans une voiture : Dans une autre voiture j'ai un câble tiers tressé qui a au moins le même âge, et qui est impeccable. Et qui coutait 2 ou 3 fois moins cher.
  16. 4 ou 5 ans ça n'a rien d'acceptable non plus. Ces boîtes qui se gargarisent d'agir pour l'environnement ont lavé le cerveau de leurs clients en leur faisant accepter que des produits qui auparavant pouvaient durer 20 ans ou plus soient devenus jetables.
  17. C'est plus compliqué que ça. Les browsers par exemple font parfois du préchargement avant que tu cliques sur un lien. Et les hackers exploitent des failles de certains logiciels, par exemple certaines qui permettent de déclencher des actions juste avec un message texte. Bon après il ne faut pas psychoter non plus, ce genre d'attaque est quand même très rare. En cas de doute passer un coup de MalwareByte comme tu le recommandes.
  18. Le problème de toute solution qui n'est pas "suffisamment" Apple, c'est qu'il y a de bonnes chances que des spécificités de HFS+/Time Machine soit perdues en route. Quant aux solutions de clonage, soit elles travaillent à bas niveau et vont reproduire la fragmentation, soit elles travaillent au niveau fichiers et il y a de bonnes chances qu'elles coincent à la lecture de certains fichiers comme rsync le fait. En plus là je manque de patience, et vu l'architecture d'une sauvegarde TM avec tout ces hardlinks on est obligé de faire la copie intégrales avant de vérifier si la copie est exploitable ou pas... C'est compliqué de faire des tests qui prennent des dizaines d'heures à chaque fois.
  19. Alors j'ai reçu le nouveau disque (HDD de 1To), et j'ai tenté pour voir une copie du dossier `Backup.backupd` avec une commande `sudo rsync -avEHl` ... Au bout de 12h il a transféré 230Go, soit un royal 5 Mo/s... C'est incompréhensible, sur certains fichiers ça va vite, mais il passe un temps fou sur des fichiers du genre : `Backups.backupdb/IMAC/2020-11-29-104231/Macintosh SSD/.DocumentRevisions-V100/PerUID/504/666/com.apple.documentVersions/BDF98CEA-CA36-4ED1-9192-8E32ACF6883F.jpeg` Quand il coince comme ça le disque ne fait quasiment rien, le taux de transfert dans le moniteur d'activité est quasi nul, et je ne l'entends pas "gratter" (comme ça peut être le cas quand il y a des erreurs de lecture et que la tête revient sans arrêt sur la même position). Je crois que je vais laisser tomber, d'autant que je ne suis pas certain que ma commande rsync préserve tout ce qui est nécessaire, et d'autant que je vois passer des erreurs inexplicables du genre : rsync: [generator] chown "/Volumes/TM2/Backups.backupdb/IMAC/2020-11-29-104231/Macintosh SSD/Applications/Octave.app/Contents/Resources/usr/lib/QtWebKit.framework" failed: Operation not permitted (1) C'est pénible... J'ai l'impression que l'architecture de Time Machine n'est plus du tout adaptés aux volumes de données et aux tailles de disques actuels. Peut-être qu'en APFS ça marche mieux (?), mais étant encore sous 10.13 Time Machine réclame du HFS+. Et sinon j'imagine qu'avec un SSD c'est mieux, mais je n'en suis même pas convaincu (quand ça coince, on est très en dessous des performances du disque, même en accès aléatoire). Je vais laisser tomber et repartir sur une sauvegarde vierge.
  20. "sous blister" ça ne veut absolument rien dire. Il suffit d'avoir l'équipement pour remettre sous blister à peu près n'importe quoi. Soit il est vendu explicitement comme "neuf" (et le vendeur est fiable, ce qui n'est pas facile à vérifier sur LBC), soit il est d'occasion. EDIT: j'insiste sur la réputation du vendeur, c'est un point essentiel. Acheter un truc à 800€ à un vendeur dont on ne connait rien et contre qui on aura très peu de recours possible en cas de problème, il faut aimer le risque.
  21. Sinon, pour la "beauté du geste", quand j'aurais le nouveau disque je vais tenter une copie de la sauvegarde quand même pour voir, avec des commandes unix type cp/cpio/rsync... Le problème avec le Finder c'est qu'avant de commencer à copier quoi que ce soit il analyse l'entièreté de la source pour voir si ça va tenir dans le disque cible, et sur des millions de petits fichiers c'est infernal. Mais peut-être qu'avec des commandes plus "brutes" ça peut le faire.
  22. Les SSD vont régler le problème, vu que la fragmentation est beaucoup moins un problème sur SSD (mais ça a quand même un impact, contrairement à ce qu'on pense parfois). Si je n'avais pas trouvé ce HDD à 30€ (ce qui est quand même un très bon prix) j'aurais peut-être fait le saut du SSD externe.
  23. J'ai donné la réponse, relis
×
×
  • Create New...