Dans de nombreuses applications apparaissent des matrices dites Block Low-Rank (BLR), pour lesquelles les blocs éloignés de la diagonale ont un rang numérique faible. On peut donc stocker ces derniers sous la forme d'une approximation de rang faible telle qu'une SVD tronquée. Cette compression permet de réduire à la fois le coût de stockage la matrice ainsi que le temps de calcul de sa factorisation LU, tout en contrôlant l'erreur introduite à l'aide d'un paramètre ε. Dans cet exposé, une nouvelle variante de cette compression BLR est présentée, utilisant à bon escient plusieurs formats de précision pour représenter les coefficients. La plupart des entrées peuvent en effet être converties en précision faible, telles que les simple et demie précisions, au lieu de la double précision plus couramment utilisée. En effet, une analyse théorique ainsi que des expériences numériques permettent de justifier que l'erreur de compression reste ainsi du même ordre de grandeur que l'erreur de compression initiale. Nous illustrons l'intérêt de cette approche en précision mixte sur plusieurs matrices provenant d'applications réalistes, et montrons que l'utilisation combinée de trois arithmétiques binary64, binary32 et bfloat16 permet d'obtenir une réduction des coûts en stockage et en nombre d'opérations allant jusqu'à un facteur trois, le tout sans perte de précision significative.
- Poster