Aller au contenu

wKns

Membre
  • Compteur de contenus

    389
  • Inscription

  • Dernière visite

Messages posté(e)s par wKns

  1. Souvent sur les montres il est nécessaire de désactiver la connexion depuis la montre et la relancer pour se connecter à un nouveau device. Le bluetooth low energy (BLE) est fait pour ne pas essayer de sans cesse se jumeler. Essaye d'aller dans le réglages de la montre.

  2. 20 hours ago, Rick Deckard said:

    l'écran Retina est un luxe dont je peux me passer,

    Je ne sais pas comment tu fais en étant Dev...

     

    20 hours ago, Rick Deckard said:

    je n'ai pas besoin d'un processeur surpuissant... pour moi, seuls le stockage, la ram et la compatibilité de l'OS comptent.

    Prends un 13 pouces 2015 avec RAM et SSD au max tu seras tranquille. Je suis sur que ça se trouver des bonnes occasions.

  3. C’est sur que sous mac t’auras pas de problème de drivers, y’en a généralement pas et une bonne partie du hardware pro est pas compatible. Je pense que ce que tu voulais dire c’est que le soft est adapté depuis sa conception au hard et ça c’est vrai. MacOS est bien optimisé et moins sujet aux bugs car les processus sont isolés. Maintenant en terme de rapport puissance/prix Apple c’est très cher et loins derrière les autres marques, tu achètes le design et le SAV. 

  4. 14 hours ago, Sethenès said:

    Je suis toujours assez sceptique sur le principe du "gratuit", surtout quand il est question d'entropie. Quant à la chaleur, elle a les unités d'une énergie (Joules) alors que l'entropie à d'autres unités (Joules/Kelvins) donc méfiance avec les raccourcis.

    Par contre, ça je ne savais pas. Merci pour l'info.

    Je suis d'accord que le gratuit n'est pas pour tout de suite mais fondamentalement ça paraît réaliste. Si un processus est entièrement réversible, sans perte d'information, sans augmentation du désordre alors il peut être "gratuit". Il faut repenser complètement les architectures mais il y a eu des expérience qui ont montré que même dans un supra-conducteur (normalement il n'y a pas de perte interne, même si à l'extérieure du système il y a besoin de quantité d'énergie considérable pour maintenir la température) il y avait un coût énergétique lié à la non réversibilité. On attend maintenant la démonstration du "non-coût" de la réversibilité. De toute manière il faudra un système pour abaisser la température donc il y aura forcément un coût quelque part...

  5. Le problème c’est que la mécanique quantique à Bac +3 sans Hamiltonien ça n’explique pas tout. En tout cas belle explication !

    J’ai lu récemment qu’un autre phénomène entrait en jeu : la non réversibilité des opérations. En gros, comme en thermo, la non réversibilité fait qu’une opération élémentaire coûte forcément un minimum d’énergie. C’est en débat dans la communauté scientifique mais les premières expériences semblent indiquer qu’en utilisant des portes logiques réversibles dans les processeurs on puisse calculer sans utiliser d’énergie (en tout cas sans payer le coût de la non-réversibilité). En gros l’idée de base c’est que la non réversibilité coûte de l’entropie, entropie qui selon le deuxième principe fondamental de la thermo a une analogie chaleur. 

     

    Petite corrections également, le microscope électronique fonctionne en champ proche c’est de cette façon qu’il bât la limite de diffraction (de la même manière que l’AFM). 

     

    Pour compléter tes propos, il y a une taille minimum de transistor pour obtenir l’effet recherché (un seul atome ne peux pas jouer le rôle de transistor) mais ce qui limite la fréquence c’est la vitesse de la lumière (plus faible dans un métal que dans l’air). Techniquement tu as des clocks à plusieurs térahertz donc tu pourrais cadencer le processeur plus rapidement mais comme le signal ne se propage pas assez vite c’est inutile. 

  6. On commence aussi à atteindre les limites de la physique/chimie. Les CPU chauffent pas mal et ça limite leur puissance volumique (sans supra et grosse infra pour refroidir), surtout pour les appareils mobiles. J’ai aussi l’impression que de plus en plus on dévellope des architectures dédiées pour les besoins de calculs spécifiques (GPU pour le calcul parallèle, tensor unit et light-on pour les produits matriciels, etc.) et des algorithmes plus performant. La recherche en maths est très axées sur « comment on peut résoudre tel problème avec le moins de perte de précision possible mais avec 100 fois moins d’opérations ». Du coup en mixant tout ça on se retrouve avec des CPU qui évolue peu en puissance brute MAIS qui consomment moins etc. Alors à savoir si c’est parce que la demande change ou si ils rencontrent des difficultés. 

  7. 23 minutes ago, Lion09 said:

    Je comprends pas ton calcul de 12 ans alors que tu dis 2 à 3% par mois en beaucoup moins de temps la batterie va se "vider" enfin si c'est le terme exact

    C'est pas linéaire c'est une suite géométrique, au début ça diminue beaucoup et après c'est beaucoup plus lent. Imagines que 3% de 5% c'est bien plus faible que 3% de 50%.

     

    17 minutes ago, Appeul said:

    @wKns Ce calcul est peut-être vrai pour des batteries totalement débranchées (et encore je demande à voir car ça me parait énorme 12 ans !) mais dans le cas d'un iPod Nano 7 la batterie est soudée à la carte mère et pas sûr que même éteint l'appareil ne tire pas sur la batterie (conservation de la date/heure par exemple).

    @Lion09 C'est 2-3% du reste à chaque fois.

    D'ailleurs voila ce que dit Apple :

    https://www.apple.com/fr/batteries/maximizing-performance/#generaltips

    "Lorsque vous stockez un appareil pour une longue durée, rangez-le à moitié chargé.

    Si vous stockez votre appareil pendant une période prolongée, deux facteurs importants auront une incidence sur l’intégrité de votre batterie : la température ambiante et le pourcentage de charge de la batterie au moment où l’appareil est éteint pour être rangé. Par conséquent, nos recommandations sont les suivantes :

    • Ne chargez pas complètement et ne déchargez pas complètement la batterie de votre appareil ; chargez-la à environ 50 %. Si vous stockez un appareil avec une batterie entièrement déchargée, celle-ci risque de passer à un état de décharge profonde et ne sera plus en mesure de maintenir une charge. À l’inverse, si vous le stockez avec une batterie entièrement chargée pendant une période prolongée, la batterie risque de perdre une partie de sa capacité et de perdre en autonomie.
    • Éteignez l’appareil pour éviter toute utilisation supplémentaire de la batterie.
    • Placez votre appareil dans un endroit frais, à l’abri de l’humidité, où la température est inférieure à 32 °C.
    • Si vous prévoyez de stocker votre appareil pendant plus de six mois, chargez-le à 50 % tous les six mois.

    Après un stockage prolongé de votre appareil, sa batterie peut être faible lorsque vous le réutilisez. Il vous faudra jusqu’à 20 minutes de charge avec l’adaptateur d’origine avant de pouvoir réutiliser l’appareil."

    Ce qui est dangereux c'est que l'electrolyte se barre de la batterie et oxyde l'iPod. A mon avis ça ne peut pas arriver si le stockage est correct. 

  8. D'après cet article on peut s'attendre à une perte de 2-3% de charge par mois (https://hal.archives-ouvertes.fr/hal-01393614/document). Le danger c'est que la batterie n'atteigne 0% et y reste. Si tu pars de 50% et que tu perds en moyenne 3% par mois ça donne:

    Charge au mois n = 50 * (0.97)^n

    On peut dire que c'est dangereux si tu passe sous les 0.5% (je ne connais pas le chiffre exacte mais c'est pas aberrant), On cherche donc n tel que:

    0.5 = 50 * (0.97)^n

    n = log(0.5/50)/log(0.97) = 151 mois soit environ 12 ans

    Ci-joint l'évolution de la charge de la battery.

     

    battery.png

  9. Pour conserver une batterie il faut qu’elle soit chargée à 50%. Normalement c’est le cas des produits neufs qui peuvent être en rayon des années. Le mieux c’est quand même de retirer la batterie lorsque c’est possible. Si c’est impossible mais que les conditions sont bonnes (température constante et humidité faible) la batterie devrait tenir ou tout du moins ne pas endommager l’appareil. 

  10. L’OLED est moins gourmant physiquement car les photons sont directement émis par des molécules, il n’y a pas de transfert no de filtre. Le LCD fonctionne avec des LED (en général) mais il y a des nématiques qui allument ou éteignent les 3 couleurs primaires (rouge, vert et bleu) de chaque pixel (voir matrice de bayer sur le web). 

    Du coup j’imagine que pour afficher du blanc la différence doit être relativement minime mais dès qu’il y a des zones sombres et colorées alors l’oled est beaucoup moins gourmant. 

  11. Claquer 3000 euros dans un ordinateur en lycée général ça me semble quand même un peu abusé. A la fac il y avait des élèves qui faisait de la CAO sur les premiers ultrabook (les 12 pouces asus avec un écran en 1300x800), j'imagine qu'au lycée on peut faire ça sur à peu prêt n'importe quoi. Renseignes toi sur les logiciels et achètes en fonction, sans oublier que dans  2 ans ton utilisation pourra complètement changer donc inutile de dépenser 3000 euros.

  12. Pour l’usage que tu décris tu pourrais bien prendre un rétina 2013 que ça irait pareil. Pour imageJ il faudrait 8go de ram pour être tranquille si tu veux processer des stacks. 

    À ta place j’essaierais de trouver un rétina 2015 sous garantie. T’auras pas de problème de clavier et une machine suffisemment puissante. 

  13. La technique qu’on a développée est basée sur l’OCT mais au lieu de mesurer l’amplitude de rétrodiffusion on mesure les variations de phase pour construire une image des dynamiques locales. Ça donne des jolis contrastes dans les tissues et les cultures de cellules. La difficultée c’est qu’environ un photon sur un milliard est lié à ce changement de phase. Le reste c’est des photons incohérent (virés par l’interféromètre mais ça sature le capteur quand même) et ceux qui sont cohérents mais « statiques ». Du coup on se retrouve à se battre contre le shot noise pour faire une image, c’est fun!

    Moi j’utilise matlab pour le soft de manip que j’ai développé pour que l’équipe puisse l’utiliser. Sinon je code tout le reste en phyton avec des wraps de C++/cuda.

     

    Tu fais quoi sur le CT ?

     

  14. Le XPS me paraît une bonne solution. J’ai un précision 7520 et j’ai pris un xps 13 pour mes stagiaires (quand j’en ai..) et ils sont vraiment bien même pour un usage lourd. Je trouve que l’écran borderless est plutôt sympa. Tu as pris quoi comme version ?

  15. Ça dépend de ce que je veux faire. Pour l’auto-corrélation j’ai développé un truc plus rapide qu’utiliser la transformée de Fourier car les temps long ne m’intéressent pas. Pour les représentations fréquentielles j’utilise la FFT (algorithme FFTW (fastest fourier transform of the west)). C’est de complexité Nlog(N) avec effectivement des manipulations de matrice (sinon c’est en N^2 et là il me faudrait plus qu’une vie pour une acquisition !) et c’est la plus rapide pour des matrices non carrés. La FFT est la même dans toutes les libs si la matrice est carrée, c’est l’algo de Cooley et Tuckey. 

  16. 18 hours ago, Sethenès said:

    Je suis curieux, quel domaine de la physique / math (en gros).

    Imagerie médicale, technique optique avec des data qui arrivent à 4 Go/s en uint16, sachant que je dois faire des transformées de Fourier je dois à minima passer en complex64 ce qui fait 16 Go/s. Le but serait de passer en real time pour générer les images, ce qui pose pas mal de problème de gestion de buffer et d’optimisation du code (Cuda/C++). Qui dit beaucoup de données dit aussi techniques en grande dimension (projections non linéaires, clustering, etc. essentiellement dispo sur linux même si il existe des versions non officiellement maintenues sur win)

  17. Perso j’utilise Linux au boulot parce que c’est plus pratique (je fais une thèse en physique/maths) pour les softs scientifiques et que la plupart des gens écrivent leur lib sous linux (réseaux de neurones, etc.). Par contre j’ai toujours besoin d’un dual boot ne serait-ce que parce que la plupart des fabricants ne fournissent des drivers que sous Windows (moteurs, piezo, etc). Si tu n’as pas besoin de puissance sous windows (moi je ne peux pas car j’ai besoin d’optimiser au poil) tu peux installer un win10 sur une virtual box. C’est très facile et tu auras accès à office depuis ton linux. Chez Dell tu peux même commander ta machine sous Ubuntu (mieux que Fedora pour les drivers, moins bien si t’es un utilisateur avancé) et tout fonctionne « out of the box ». Si t’es habitué à macOS en terminal (commande bash et gestionnaire de paquet homebrew) tu ne verras pas beaucoup de différence avec linux. 

×
×
  • Créer...