Intel va révolutionner la mémoire et le stockage


Les chiffres donnent le tournis. Intel et Micron ont annoncé hier soir avoir développé conjointement un nouveau type de mémoire non volatile qui devrait tout simplement révolutionner l'informatique. Le bond en avant sera encore plus important que le passage du disque dur au SSD : la technologie 3D Xpoint (prononcer 3D CrossPoint) promet en effet des temps d'accès 1 000 fois plus rapides, tout en disposant d'une densité de données 10 fois supérieure et une endurance multipliée par 1 000 (il sera possible d'écrire 40 To de données par jour pendant 5 ans, contre 40 Go aujourd'hui). La mémoire 3D Xpoint combine le meilleur des deux mondes : des performances fulgurantes proches de celles de la DRAM (mémoire vive) et des données qui ne nécessitent pas d'alimentation pour être conservées (la mémoire flash est non volatile, contrairement à la DRAM qui se vide lorsque l'ordinateur est éteint). Pour comprendre tous les détails, nous vous invitons à regarder la vidéo ci-dessous, qui est très bien réalisée :




Pour arriver à de telles performances, Intel et Micron ont radicalement changé la structure de la mémoire, en se débarrassant des transistors et en jouant notamment sur des variations de tension électrique. Une véritable révolution qui aurait un coût très raisonnable et qui sera prêt pour une commercialisation dès l'année 2016, avec des échantillons distribués dès cette année auprès des différents fabricants. Intel a mentionné de nombreux usages professionnels pour sa nouvelle mémoire, mais n'a pas manqué de souligner que les jeux vidéo auront beaucoup à gagner de l'arrivée de 3D Xpoint. Voilà qui laisse à penser que le fondeur s'attaquera également rapidement au marché grand public, et laisse espérer l'arrivée d'ordinateurs révolutionnaires dans un futur très proche. On a hâte !
Des liens n'apparaissent pas ? Des images sont manquantes ? Votre bloqueur de pub vous joue des tours. Pour visualiser tout notre contenu, merci de désactiver votre bloqueur de pub !

Partager

Sur le même sujet

Vos réactions (7)

LolYangccool

29 juillet 2015 à 11:58

Concrètement ça voudrais dire qu'on pourrait ne plus avoir de RAM mais juste du stockage 3D XPoint qui combinerait en fait les deux ? Tout sera à refaire aussi niveau soft pour prendre en charge ce changement. Puisque actuellement les logiciels stockent des choses en RAM, il faudra qu'ils le stockent sur la mémoire 3D Xpoint. Non ?

Ben10

29 juillet 2015 à 12:06

@Lol : Oui tu as sûrement raison, cependant est-ce qu'il ne sera pas nécessaire de créer des partitions de disques ?
Stockage / Système / RAM
Si c'est le cas, peut-on imaginer des partitions "dynamiques" qui optimisent l'espace dispo?

Consoso

29 juillet 2015 à 17:47

Il faudra surtout s'occuper de l'interface SATA qui va vite devenir un goulot d'étranglement si je comprends bien ...

Sylvain

29 juillet 2015 à 18:10

@Consoso : les derniers Mac utilisent le PCIe et non plus le SATA

Sethenès

29 juillet 2015 à 20:33

Pour répondre aux questions posées, il faut se rappeler comment fonctionne un ordinateur.

L'idée est quand langage machine, le code et les données sont mélangés et trouvent leur place dans la mémoire. Si on a une fonction de ce genre :

int f () {
int valeur = 2

return valeur;
}

Il est probable qu'en mémoire on ait, par exemple à l'adresse 120 :
à l'adresse 120 : mov ax, $125 (cette instruction va lire le contenu de la mémoire à l'adresse 125 et la copie dans le registre ax imaginons que cette commande demande 5 bytes)
à l'adresse 123 : push ax (on met ax sur la pile, 1 byte)
à l'adresse 124 : return (on retourne d'où on vient, 1 byte)
à l'adresse 125 à 128 la valeur de 2 stockée sur 4 butes puisqu'on a un entier.

Quand à un autre endroit, le programme appelle la fonction f :
342 : jump $120 (saut qui amène le programme à l'adresse 120, instruction qui prend aussi 5 bytes)
347 : pop ax (le programme doit enlever la valeur passée sur la pile de mémoire et ainsi éviter la fuite de mémoire.
348 : suite du programme

Trois enseignement à tirer :
- le code et les données sont mélangés,
- la taille nécessaire pour stocker une adresse mémoire doit être connue à l'avance : si j'ai écrit que pop ax, $125 prenait 5 bytes, c'est pour bien faire ressortir que l'instruction "pop ax, $adresse" prend un byte et que l'adresse en prend 4. De même que pour le saut, qui prend aussi 5 bytes.

Dès lors, la mémoire "vive" ne disparaitra pas car elle doit contenir le programme et les variables en cours d'exécution. En plus, le processeur doit connaitre sa taille et pouvoir y accéder via le bus de données (lui aussi de taille fixe).

Par contre, tout ce qui est mécanisme de cache lecture et écriture sur les "disques", de mémoire cache, d'optimisation, devrait subir d'importants changements.

Consoso

29 juillet 2015 à 21:24

@ Sylvain : ah voui j'avais zappé
Bon mais le PCIe devra évoluer quand même : le débit maximal théorique du PCIe 4.0 (qui sortira en 2016) offrira "seulement" 31 Go/s en 16 lignes...Si la technologie 3D Xpoint est bien 1000 fois plus véloce que les SSD actuels (500 Mo/s pour un SSD ni bon ni mauvais), cela voudrait dire qu'il nous faut du PCIe à 500 Go/s... Et en 2016 on en aura 31...

bunios

30 juillet 2015 à 06:03

C'est la latence qui est amélioré :

- disque dur classique de l'ordre de ms
- SSD de l'ordre de microseconde
- 3D xpoint de l'ordre du nanoseconde.

Ce qui donne effectivement 1000 x la SSD.

En tout cas c'est une très bonne nouvelle pour l'avenir tout court.

A+

Réagir
Vous devez être connecté à notre forum pour pouvoir poster un commentaire.

Plus loin Connexion
Plus loin Inscription