Pour résoudre la contradiction, les constructeurs s'orientent d'une part vers une miniaturisation plus poussée des composants, d'autre part vers un procédé qui consiste à faire commencer par la machine une opération élémentaire avant que l'opération précédente soit achevée ; c'est possible chaque fois que la seconde opération ne requiert pas, pour être effectuée, que soit déjà connu et enregistré le résultat de la précédente. L'accroissement du nombre de circuits, avec les calculatrices géantes, facilite évidemment ce procédé.

Mais l'obstacle de la limitation de vitesse liée aux dimensions se retrouve à un autre niveau : celui de la mémoire centrale de la machine. Plus elle est volumineuse et plus elle peut contenir de données ; plus aussi il faut de temps pour en extraire les données dont la machine a besoin au cours de son travail. Or, déjà, les opérations de mise en mémoire et d'extraction des données constituent une pierre d'achoppement pour l'accroissement des performances des ordinateurs.

Mémoire centrale tampon

C'est ici qu'intervient une solution qui fait maintenant ses preuves sur les très grosses calculatrices récentes : la mémoire centrale tampon. Cette dernière est une mémoire de moindre capacité, mais de fonctionnement très rapide. Elle reçoit de la mémoire centrale (à très grande capacité, moins rapide) les données nécessaires au calcul en cours.

La coordination des deux mémoires centrales pose un problème, moins difficile toutefois à résoudre qu'il ne paraît, car au cours d'une série de calculs les mêmes données doivent être utilisées un très grand nombre de fois ; il suffit donc de les garder dans la mémoire centrale tampon. C'est le système adopté pour les deux géants derniers-nés : l'IBM 360-195 et le Control Data 7600, qui équiperont les grands centres de calcul utilisables à distance.