En reliant entre eux des systèmes SMP, Numa leur offre de nouvelles perspectives de performances.
La course au gain de performances sur les serveurs incite les constructeurs à leur ajouter toujours plus de processeurs. Mais un nombre élevé de processeurs est également synonyme de temps d’accès à la mémoire beaucoup plus longs. D’où une dégradation globale des performances du système.Dérivée de l’architecture SMP (Symmetric Multi-Processor), la technologie Numa (Non-Uniform Memory Access) – proposée par l’université de Stanford en 1988 – est une réponse à cette problématique. Son principe consiste à construire des grands systèmes à partir de multiprocesseurs plus petits et à leur faire partager leurs mémoires respectives, tout en simulant une uniformité d’accès à chacune d’elles. Ces mémoires réparties sont donc considérées par les processeurs comme une mémoire unique, faisant partie intégrante de leur espace d’adressage. L’architecture actuelle ccNuma s’appuie sur un jeu de caches supplémentaires pour renforcer l’uniformisation des temps d’accès aux mémoires.Sequent Computer System – racheté en 1999 par IBM – et Data General ont été les premiers à commercialiser des serveurs Numa au milieu des années quatre-vingt-dix. Depuis, d’autres constructeurs se sont engouffrés dans la brèche. Car Numa se pose toujours comme une solution intéressante – face au clustering – pour la réalisation de grands systèmes non soumis à de fortes contraintes de disponibilité.