Aller au contenu

Puissance des processeurs : Evolution en rade ?


Sethenès

Messages recommandés

Certains l'ont peut être lu dans une news, j'ai fait une rapide comparaison de la puissance des processeurs d'une génération à l'autre en utilisant un benchmark (Cinebench 11.5).

Je ne prétends pas qu'il s'agit d'un résultat exact car il y a de nombreux biais à ma démarche, citons :

  • Je me limite à un seul bench, c'est vrai, mais je l'ai choisi juste parce que dans l'article qui m'a servi de référence, c'était lui qui était cité en premier et qu'en plus, j'ai retrouvé les résultats des générations absentes. De plus, un indicateur fut-il le meilleur témoin ou le plus mauvais donne quand même une idée de l'évolution réelle de la puissance.
  • Je me limite au monothread, mais à choisir, c'est quand même celui qui est le plus représentatif des usages d'une majorité (rappelons ici que je balaie large puisqu'on parle aussi des utilisateurs de PCs). De plus, la performance multithread peut en gros se déduire : il suffit de multiplier par le nombre de coeurs.
  • Je me suis limité aux versions K (anciennement Extreme Edition) mais la aussi, l'idée est de comparer la puissance brute d'une génération à l'autre. Evidemment, le ratio performance / consommation qui a lui explosé dans les gammes d'ultraportable n'est pas pris en compte puisque ce n'est pas le sujet. 
  • La valeur du plus ancien processeur de la liste (Core 2 Duo) n'est probablement pas celle de la version K, mais même si on corrige en imaginant que la version K soit de 15% plus rapide, cela n'enlève en rien la valeur de la comparaison
  • De même, il me manque la valeur de la série 5000K, mais si on fait l'hypothèse qu'elle se situe juste entre les performances de la série 4000 et de la série 6000, je ne pense pas qu'on commette une entorse à la vérité.

Voici donc les chiffres (entre parenthèse, l'évolution en % par rapport à la génération précédente) :

Intel i7 8700K : 2,32 (+5%)
Intel i7 7740X : 2,21 (+8%)
Intel i7 6700K : 2,04 (+14%, par rapport au 4770K)
Intel i7 5xxxK : -
Intel i7 4770 K : 1,78 (+7%)
Intel i7 3770K : 1,66 (+8%)
Intel i7 2700k : 1,54 (+35%)
Intel i7 965X : 1,14 (+50%)
Intel Core 2 Duo : 0,76  (-)

Le constat me semble sans appel. Depuis le Q4 2011, date de sortie de l'Intel i7 2700K, en moyenne, l'augmentation de puissance a été de 7% d'une génération à l'autre. Même si on corrige le résultat du Core 2 Duo en admettant que la progression n'est aussi que de 35% entre ce dernier et l'i7 965 X, on voit qu'avant 2011, l'évolution était 5x supérieure à ce qu'elle est depuis (35%).

Note Dans le graphe suivant, la valeur de la série 5xxxK est extrapolée et l'augmentation de performance entre le Core2Duo et le i7965 a été nivelée à 35%.

Capture d’écran 2018-09-02 à 14.00.45.png

Modifié par Sethenès
Lien vers le commentaire
Partager sur d’autres sites

Intel a compensé ses problèmes pour graver plus finement en rajoutant des coeurs sur la même architecture. Problème que ne rencontre pas Apple et TMSC (cela poussera peut-être Apple à basculer ses Macs sur ARM)
Il semblerait qu'Intel transforme progressivement son activité pour ne plus être strictement un fondeur (voir le dernier ORLM)


La puissance progressivement n'est-elle pas déportée sur les Cloud (ou alors ce sera le cas)  ? Les nouvelles activités gourmandes tirent surtout partis du GPU (exp ; réalité virtuelle)

Question d'ignorant : l'ordinateur quantique pourra t-il un jour être grand public ?

Lien vers le commentaire
Partager sur d’autres sites

il y a une heure, Sethenès a dit :

Je me limite au monothread, mais à choisir, c'est quand même celui qui est le plus représentatif des usages d'une majorité (rappelons ici que je balaie large puisqu'on parle aussi des utilisateurs de PCs).

Je ne suis pas d'accord. Le passage au multicore est une évolution comme une autre de la puissance des CPU. Dans les OS multitâches actuels, même si on n'utilise que des applis monothread on utilise quand même en partie la capacité multicore : quand tu travailles avec une appli, tous les services d'arrière-plan peuvent faire ce qu'ils ont à faire sans gêner le process de ton appli (je shématise mais c'est l'idée), et les applis qui ont réellement besoin de puissance ont souvent des capacités multithread.

On pourrait dire aussi que toutes les applis ne prêtent pas à une bonne exploitation du multicore : c'est vrai, mais c'est vrai aussi pour toutes les techniques qui ont permis en leur temps d'augmenter la puissance monocore. Par exemple, le pipelining ou la vectorisation n'amènent pas grand-chose pour certains codes.

il y a 25 minutes, VanZoo a dit :

Intel a compensé ses problèmes pour graver plus finement en rajoutant des coeurs sur la même architecture. Problème que ne rencontre pas Apple et TMSC (cela poussera peut-être Apple à basculer ses Macs sur ARM)

  Dans les familles ARM, le multicore est la règle depuis un moment.

Lien vers le commentaire
Partager sur d’autres sites

il y a 8 minutes, VanZoo a dit :

Intel a compensé ses problèmes pour graver plus finement en rajoutant des coeurs sur la même architecture. Problème que ne rencontre pas Apple et TMSC (cela poussera peut-être Apple à basculer ses Macs sur ARM)
 Il semblerait qu'Intel transforme progressivement son activité pour ne plus être strictement un fondeur (voir le dernier ORLM)


La puissance progressivement n'est-elle pas déportée sur les Cloud (ou alors ce sera le cas)  ? Les nouvelles activités gourmandes tirent surtout partis du GPU (exp ; réalité virtuelle)

En fait pour les processeurs ARM, ce que je pense, c'est qu'ils progressent vite car ils sont partis de loin et que pendant tout un temps, ils ont "rattrapé" Intel qui était devant.

Toute la question est de savoir s'ils vont pouvoir dépasser Intel d'un peu, de beaucoup ou laisser Intel loin derrière.

Selon moi, je dirais que ça va dépendre des usages. Soit il seront moins bons, un peu moins bon, soit un peu meilleur, soit bien meilleur. Et je pense qu'en gros, ils seront moins bon dans les serveurs et le gros multithreading (hébergement de machines virtuelles, etc) et meilleur dans le mobile et l'ultramobile.

Mais globalement, ils ne laisseront pas Intel "technologiquement" "derrière", à moins qu'il s'effondre économiquement.

Pour ce qui est du Cloud, je dirais que de toute manière il faut quand même bien un CPU quelque part. Soit chez soi, soit partagé, donc ça ne fait que déplacer le problème. Le Cloud permet de rentabiliser les investissements (usage 24h/24, refroidissement, etc.).

Le GPU permet beaucoup (mais la aussi il faut bien qu'il soit quelque part) mais pas tout. Il est génial pour faire des milliers de fois la même opération sur des données indépendantes - mais - est plus mauvais qu'un CPU si les données sont dépendantes l'une de l'autre.

il y a 8 minutes, VanZoo a dit :


Question d'ignorant : l'ordinateur quantique pourra t-il un jour être grand public ?

Pour comprendre comment fonctionne l'ordinateur quantique, je vais prendre une image. Imagine un énorme labyrinthe avec énormément d'embranchements, de culs de sac, etc.

Un ordinateur classique va se comporter comme une souris qui explore embranchement après embranchement afin de trouver la sortie.

Dans cette image, l'ordinateur quantique se comporte comme si tu versais en continu un liquide très visqueux par l'entrée du labyrinthe. Ce liquide va se répandre dans le labyrinthe et explorer simultanément tous les chemins possible. Il va évidemment stagner dans les culs de sac. Par contre, il s'écoulera par la sortie. Pour la trouver, il suffit donc de suivre le flux de liquide depuis l'entrée jusqu'à la sortie. S'il y a plusieurs chemins qui mènent à la sortie, ce sera celui avec le débit le plus fort qui arrivera le plus vite à la sortie.

Donc, l'ordinateur quantique est (enfin serait) idéal pour casser une clé de cryptage par exemple car il va explorer toutes les voies possibles en une fois et trouver la bonne.

Mais ses usages n'ont en rien la polyvalence d'un CPU classique qui peut aussi calculer dans Excel, utiliser le dictionnaire dans Word, etc.

Lien vers le commentaire
Partager sur d’autres sites

il y a 4 minutes, pehache a dit :

Je ne suis pas d'accord. Le passage au multicore est une évolution comme une autre de la puissance des CPU. Dans les OS multitâches actuels, même si on n'utilise que des applis monothread on utilise quand même en partie la capacité multicore : quand tu travailles avec une appli, tous les services d'arrière-plan peuvent faire ce qu'ils ont à faire sans gêner le process de ton appli (je shématise mais c'est l'idée), et les applis qui ont réellement besoin de puissance ont souvent des capacités multithread.

On pourrait dire aussi que toutes les applis ne prêtent pas à une bonne exploitation du multicore : c'est vrai, mais c'est vrai aussi pour toutes les techniques qui ont permis en leur temps d'augmenter la puissance monocore. Par exemple, le pipelining ou la vectorisation n'amènent pas grand-chose pour certains codes.

Je l'ai écrit, la démarche est "critiquable", donc je ne remets pas le principe en question.

Par contre, l'i7 2700K du Q4 2011 a déjà 4 coeurs et 8 threads (hyperthreading). Donc, dans une large mesure permet déjà ce que tu évoques.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 1 heure, Sethenès a dit :

Par contre, l'i7 2700K du Q4 2011 a déjà 4 coeurs et 8 threads (hyperthreading). Donc, dans une large mesure permet déjà ce que tu évoques.

Oui. Mais la 8ème génération passe à 6 coeurs. Ils auraient sûrement pu le faire avant, mais ils ne se cassaient pas trop le cul en l'absence de concurrence sérieuse sur ce créneau.

EDIT : il y aussi le fait que la puissance CPU disponible depuis quelques années suffit trèèès largement à la grande majorité des usages grand-public. La pression pour augmenter la puissance est donc moins forte qu'avant...

 

Modifié par pehache
Lien vers le commentaire
Partager sur d’autres sites

On commence aussi à atteindre les limites de la physique/chimie. Les CPU chauffent pas mal et ça limite leur puissance volumique (sans supra et grosse infra pour refroidir), surtout pour les appareils mobiles. J’ai aussi l’impression que de plus en plus on dévellope des architectures dédiées pour les besoins de calculs spécifiques (GPU pour le calcul parallèle, tensor unit et light-on pour les produits matriciels, etc.) et des algorithmes plus performant. La recherche en maths est très axées sur « comment on peut résoudre tel problème avec le moins de perte de précision possible mais avec 100 fois moins d’opérations ». Du coup en mixant tout ça on se retrouve avec des CPU qui évolue peu en puissance brute MAIS qui consomment moins etc. Alors à savoir si c’est parce que la demande change ou si ils rencontrent des difficultés. 

Lien vers le commentaire
Partager sur d’autres sites

Les nouveaux marchés d’Intel ne demandent plus forcément de courir après la puissance brute mais d’en mettre de partout (domotique) 

Cette puissance sera sûrement morcelée, dispatchée entre un CPU principal, d’autres secondaires et le Cloud. 

On peut envisager une puissance en maillage (futur Mac Pro ?) plutôt qu’à l’ancienne (qui a la plus grosse) Ce schéma encore actuel mais en voie de dépassement qui définit les ordinateurs et leurs capacités. En gros, la fin de l’ordinateur personnel pour un ordinateur connecté

Modifié par VanZoo
Lien vers le commentaire
Partager sur d’autres sites

Il y a 5 heures, Sethenès a dit :

En fait pour les processeurs ARM, ce que je pense, c'est qu'ils progressent vite car ils sont partis de loin et que pendant tout un temps, ils ont "rattrapé" Intel qui était devant.

Il y a un élément important à prendre en compte dans cette histoire, c'est que Intel traîne un boulet avec la compatibilité avec le jeu d'instructions historique x86, qui empêche certaines évolutions (par exemple j'avais lu que mixer des coeurs différents comme on le voit dans certains CPU ARM, était impossible ou très complexe en x86).

Intel avait essayé de rompre avec le x86 au moment du passage aux 64 bits, en présentant les processeurs Itanium, mais ça avait été l'échec commercial face aux processeur amd64 qui eux conservaient la compatibilité.

Lien vers le commentaire
Partager sur d’autres sites

il y a 24 minutes, pehache a dit :

Il y a un élément important à prendre en compte dans cette histoire, c'est que Intel traîne un boulet avec la compatibilité avec le jeu d'instructions historique x86, qui empêche certaines évolutions (par exemple j'avais lu que mixer des coeurs différents comme on le voit dans certains CPU ARM, était impossible ou très complexe en x86).

Oui, c'est certain. Ce qui a fait le succès d'Intel, et ce qui constitue aujourd'hui son trésor de guerre (l'énorme quantité de softs' écrits pour du x86) fait aussi sa faiblesse.

Si je reste sur le sujet de la puissance brute, le tout est de savoir dans quel est le surcoût du x86. Autrement dit, jusqu'où les processeurs ARM vont-ils pouvoir aller sans ce poids à trainer du x86. 

Par contre, ce qui est suggéré par plusieurs intervenants, c'est qu'on tente de contourner ce frein dans la progression : coprocesseur en compris graphique (GPU), délocalisation dans le cloud ou comme tu le proposes une architecture hybride bien qu'ici je crois qu'on vise surtout le rapport performance / consommation.

Lien vers le commentaire
Partager sur d’autres sites

Il y a 2 heures, wKns a dit :

On commence aussi à atteindre les limites de la physique/chimie. Les CPU chauffent pas mal et ça limite leur puissance volumique (sans supra et grosse infra pour refroidir), surtout pour les appareils mobiles. J’ai aussi l’impression que de plus en plus on dévellope des architectures dédiées pour les besoins de calculs spécifiques (GPU pour le calcul parallèle, tensor unit et light-on pour les produits matriciels, etc.) et des algorithmes plus performant. La recherche en maths est très axées sur « comment on peut résoudre tel problème avec le moins de perte de précision possible mais avec 100 fois moins d’opérations ». Du coup en mixant tout ça on se retrouve avec des CPU qui évolue peu en puissance brute MAIS qui consomment moins etc. Alors à savoir si c’est parce que la demande change ou si ils rencontrent des difficultés. 

Je nuancerais le propos. La tension d'alimentation du processeur nécessaire à son fonctionnement diminue avec la taille des pistes. Or la consommation électrique est proportionnelle à cette tension. Donc diminuer la taille des pistes induit une baisse de consommation et donc une baisse de calories à dissiper.

Avertissement : l'explication qui suit est assez complexe, mais si vous la comprenez, vous saurez d'où vient le fameux "mur quantique".

La où effectivement les limites physique se font sentir, c'est à la fois dans la montée en Fréquence (il y a 20 ans, je pensais naïvement qu'on dépasserait les 10 GHz en quelques années mais si on regarde les fréquences "non turbo", on est quasiment toujours en deçà de 4 GHz, voir même 3,5 GHz) et l'autre limite est évidemment la difficulté à réduire la taille des pistes. Et ce pour plusieurs raisons d'ailleurs dont l'une est la longueur d'onde à laquelle il faut imprimer les pistes. En physique, il est impossible d'être plus précis que la 1/2 longueur d'onde de la "lumière" qu'on utilise (c'est d'ailleurs pour ça qu'il faut passer au microscope électronique). La lumière visible va de 800 nm (rouge) à 400 nm (bleu). En deçà, ce sont les Ultraviolets dont les proches vont de 400 à 200 nm et les lointain de 200 nm à ... 10 nm ! Au delà, ce sont les rayons X ! 

Pour comprendre pourquoi la réduction de la taille des pistes est problématique, c'est parce que toute la physique des semi-conducteurs est basée sur la notion de bandes. Je vais essayer d'expliquer en quelques paragraphes de quoi il s'agit.

Les niveaux énergétiques des électrons présents dans les atomes ne peuvent prendre que certaines valeurs bien précises. Parfois quand un électron saute d'une couche à une autre, il émet (ou absorbe) un photon de longueur d'onde bien précise comme par exemple la couleur jaune des feux d'autoroute due aux ions Sodium qu'on observe aussi quand on jette du sel de cuisine dans une flamme. C'est d'ailleurs parce que la quantité d'énergie est aussi précise qu'on parle du photon comme d'un quantum (une quantité) d'énergie, ce qui a donné son nom à la branche de la physique qui étudie ces propriétés de la matière : la mécanique quantique.

Mais si, quand ils sont isolés (comme dans un gaz), les atomes ne peuvent occuper que certains états d'énergie, quand ils sont liés, le phénomène se complique. Imaginons un atome de Carbone isolé et intéressons-nous à son électron le plus éloigné. Imaginons toujours qu'il puisse occuper soit un niveau avec une énergie de 10, soit une énergie de 80. Pour exciter cet atome de carbone, il faut donc fournir une énergie de "70". Mais s'il est lié à un autre atome, les choses se compliquent. Il n'y aura plus 2 atomes avec 2 niveaux à 10 et 2 niveau à 80, mais en fait ces niveaux vont se mélanger pour donner par exemple : un niveau à 5, un niveau à 15 (remarquez, la moyenne est à 10) et un niveau à 75 et le dernier à 85 (remarquez, la moyenne est à 80). Donc, la moyenne reste la même (2x10 et 2x80) mais le seuil minimum pour faire passer un électron de l'état "bas" à l'état "haut" n'est plus de 70 mais de 60 (75-15) ! Vous allez me demander (enfin ceux qui auront lu jusqu'ici ; ) pourquoi le niveau 15 est occupé ? Eh bien parce que dans la configuration de base, chaque niveau ne peut être occupé que par 1 électron (en fait 2, de spins opposés mais je simplifie), donc ici, avec 2 atomes, il y a un électron sur la couche 5 et l'autre sur la couche 15 (vous vous rappelez dans notre modèle on ne s'intéresse qu'à l'électron le plus éloigné de l'atome, donc chaque atome ne donne qu'un électron) tandis que les couches 75 et 85 seront vides.

Si on multiplie les atomes de Carbone dans une structure de type diamant, on va (imaginons toujours) avoir une bande comprise entre 0 et 20 (moyenne à 10) et une autre entre 70 et 90 (moyenne 80). Chaque niveau compris de la bande comprise entre 0 et 20 sera occupée par 1 électron et toutes les couches comprises entre 70 et 90 seront vides.

Vous le savez, pour qu'un matériau soit conducteur, il faut que les électrons circulent. Or dans l'exemple du diamant, toute la couche du bas est pleine et toute la couche du haut est vide, donc les électrons ne peuvent pas bouger à moins qu'on fournisse 50 d'énergie à un électron qui va alors passer de la couche 20 à la couche 70. Cette création de ce qu'on appelle une paire électron-trou rend la substance conductrice : l'électron dans la couche 70 va pouvoir jouer à saute mouton et se déplacer tandis que le trou dans la couche 20 va pouvoir être comblé par un électron pas loin créant un nouveau trou. Et comme ça, de proche en proche, le "trou" va se déplacer. S'il y a mouvement d'électrons, il y a courant électrique.

Oui mais, une énergie de 50, c'est énorme et c'est très difficile à obtenir que ce soit par la température, le rayonnement ou du courant électrique. C'est pour ça que le diamant est un isolant.

Mais imaginons maintenant un métal comme l'Or. Dans mon modèle, on pourrait imaginer que la bande basse s'étale de 0 à 20 (tout à fait remplie) et que la bande haute (vide), elle couvre les énergies de 25 à 45. Dans ce cas, évidemment, la simple agitation thermique (rappelons que nous sommes quand même à près de 300 Kelvin) va suffire à créer nombre de paires électron-trous et donc l'Or sera un bon conducteur électrique.

La question est évidemment de savoir s'il y a des substances dont le gap (la différence entre la couche la plus haute occupée et la plus basse inoccupée) est plus petite que 50 et plus grande que 5. La réponse est oui et c'est le domaine des semi-conducteurs comme le Silicium. Pour se donner des chiffres disons que la bande pleine va de 0 à 20 et que la vide va de 40 à 60.

Alors qu'est-ce qu'un semi-conducteur dopé ? Imaginons que dans le réseau se Silicium on place de temps en temps une impureté qui au lieu d'avoir 1 électron disponible n'en n'aucun. Il va crée une petite distorsion dans la structure de bande et en fait on va avoir un trou artificiel. Si on imagine que dans un autre réseau de Silicium on place de temps en temps un atome qui a 2 électrons libres plutôt qu'un seul, que va-t-il se passer ? La structure de la bande inférieure va rester telle quelle et l'électron en trop va se retrouver éjecté dans la bande vide, donc à une énergie de 40. Le réseau de Silicum va "imposer" le cadre (les bandes occupées de 0 à 20 et les bandes libres de 40 à 60) et les impuretés vont s'y conformer.

Si on place ces deux types de Silicium l'un à côté de l'autre, que va-t-il se passer ? Il sera très facile de faire passer du courant venant de la partie dopée avec 2 électrons vers celle ou il y a un trou, alors que l'inverse est très difficile puisqu'il faut qu'un 2ème trou se crée et que l'électron éjecté soit propulsé de la couche 20 à la couche 40. Nous avons la un dispositif qui laisse passer la courant dans un seul sens, ce qui n'est rien d'autre qu'une ... diode.

Signalons que si le principe des diode à semi-conducteur a été "simple" à concevoir, sa mise en oeuvre a demandé plus de 10 ans car il a fallu maitriser la purification du Silicium pour obtenir une pureté suffisante en ensuite le dopage contrôlé.

Alors, maintenant d'où vient ce fameux mur quantique ? Ben, vous avez tout en main pour le comprendre.

Pour que le modèle de bande soit valable, il faut un grand nombre d'atomes semblables qui vont créer une grande densité de couche (dans le modèle entre 0 et 20, et puis plus haut). C'est seulement de cette manière qu'il sera possible d'inclure quelques impuretés (on parle d'1 atome d'impureté sur 10 millions d'atomes de Silicium) afin de créer les effets diodes et surtout transistors (mais un transistor, c'est comme 2 diodes).

Evidemment, si on réduit les pistes, ce qui revient à diminuer le nombre d'atomes, il y a 2 problèmes évidents :

  • on supprime des niveaux de la bande et donc il devient plus difficile à d'avoir une "belle" séparation entre les bandes pleines (0 à 20) et vides (40 à 60)
  • on doit (j'imagine) encore mieux maitriser le dopage.

Et voilà,

Si vous avez compris ça, vous avez compris un cours de physique de niveau Bac+3 ;)

Modifié par Sethenès
Lien vers le commentaire
Partager sur d’autres sites

Le problème c’est que la mécanique quantique à Bac +3 sans Hamiltonien ça n’explique pas tout. En tout cas belle explication !

J’ai lu récemment qu’un autre phénomène entrait en jeu : la non réversibilité des opérations. En gros, comme en thermo, la non réversibilité fait qu’une opération élémentaire coûte forcément un minimum d’énergie. C’est en débat dans la communauté scientifique mais les premières expériences semblent indiquer qu’en utilisant des portes logiques réversibles dans les processeurs on puisse calculer sans utiliser d’énergie (en tout cas sans payer le coût de la non-réversibilité). En gros l’idée de base c’est que la non réversibilité coûte de l’entropie, entropie qui selon le deuxième principe fondamental de la thermo a une analogie chaleur. 

 

Petite corrections également, le microscope électronique fonctionne en champ proche c’est de cette façon qu’il bât la limite de diffraction (de la même manière que l’AFM). 

 

Pour compléter tes propos, il y a une taille minimum de transistor pour obtenir l’effet recherché (un seul atome ne peux pas jouer le rôle de transistor) mais ce qui limite la fréquence c’est la vitesse de la lumière (plus faible dans un métal que dans l’air). Techniquement tu as des clocks à plusieurs térahertz donc tu pourrais cadencer le processeur plus rapidement mais comme le signal ne se propage pas assez vite c’est inutile. 

Lien vers le commentaire
Partager sur d’autres sites

Il y a 13 heures, wKns a dit :

J’ai lu récemment qu’un autre phénomène entrait en jeu : la non réversibilité des opérations. En gros, comme en thermo, la non réversibilité fait qu’une opération élémentaire coûte forcément un minimum d’énergie. C’est en débat dans la communauté scientifique mais les premières expériences semblent indiquer qu’en utilisant des portes logiques réversibles dans les processeurs on puisse calculer sans utiliser d’énergie (en tout cas sans payer le coût de la non-réversibilité). En gros l’idée de base c’est que la non réversibilité coûte de l’entropie, entropie qui selon le deuxième principe fondamental de la thermo a une analogie chaleur. 

Je suis toujours assez sceptique sur le principe du "gratuit", surtout quand il est question d'entropie. Quant à la chaleur, elle a les unités d'une énergie (Joules) alors que l'entropie à d'autres unités (Joules/Kelvins) donc méfiance avec les raccourcis.

Pour compléter tes propos, il y a une taille minimum de transistor pour obtenir l’effet recherché (un seul atome ne peux pas jouer le rôle de transistor) mais ce qui limite la fréquence c’est la vitesse de la lumière (plus faible dans un métal que dans l’air). Techniquement tu as des clocks à plusieurs térahertz donc tu pourrais cadencer le processeur plus rapidement mais comme le signal ne se propage pas assez vite c’est inutile. 

Par contre, ça je ne savais pas. Merci pour l'info.

Lien vers le commentaire
Partager sur d’autres sites

14 hours ago, Sethenès said:

Je suis toujours assez sceptique sur le principe du "gratuit", surtout quand il est question d'entropie. Quant à la chaleur, elle a les unités d'une énergie (Joules) alors que l'entropie à d'autres unités (Joules/Kelvins) donc méfiance avec les raccourcis.

Par contre, ça je ne savais pas. Merci pour l'info.

Je suis d'accord que le gratuit n'est pas pour tout de suite mais fondamentalement ça paraît réaliste. Si un processus est entièrement réversible, sans perte d'information, sans augmentation du désordre alors il peut être "gratuit". Il faut repenser complètement les architectures mais il y a eu des expérience qui ont montré que même dans un supra-conducteur (normalement il n'y a pas de perte interne, même si à l'extérieure du système il y a besoin de quantité d'énergie considérable pour maintenir la température) il y avait un coût énergétique lié à la non réversibilité. On attend maintenant la démonstration du "non-coût" de la réversibilité. De toute manière il faudra un système pour abaisser la température donc il y aura forcément un coût quelque part...

Lien vers le commentaire
Partager sur d’autres sites

il y a 32 minutes, wKns a dit :

Je suis d'accord que le gratuit n'est pas pour tout de suite mais fondamentalement ça paraît réaliste. Si un processus est entièrement réversible, sans perte d'information, sans augmentation du désordre alors il peut être "gratuit". Il faut repenser complètement les architectures mais il y a eu des expérience qui ont montré que même dans un supra-conducteur (normalement il n'y a pas de perte interne, même si à l'extérieure du système il y a besoin de quantité d'énergie considérable pour maintenir la température) il y avait un coût énergétique lié à la non réversibilité. On attend maintenant la démonstration du "non-coût" de la réversibilité. De toute manière il faudra un système pour abaisser la température donc il y aura forcément un coût quelque part...

Ce qui me rend sceptique, c'est que tant de gens ont essayé ce genre de choses et la subitement, ce que personne n'a réussi à faire depuis 2 siècles deviendrait possible.

Après bien sûr, il est possible de "tricher" comme par exemple avec les pompes à chaleur qui semblent produire plus d'énergie qu'elles ne consomment mais en fait, comme leur nom l'indique, elles ne font que prendre la chaleur à un endroit et la mettre à un autre.

Lien vers le commentaire
Partager sur d’autres sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.

Chargement
×
×
  • Créer...