Uso de formatos no convencionales para matrices dispersas en GPUs
Supervisor(es): Dufrechou, Ernesto - Ezzatti, Pablo
Resumen:
Una tendencia de las ultimas décadas en el diseño de arquitecturas de computadoras es el desarrollo de procesadores orientados al throughput. Uno de los ejemplos especialmente prominentes es el de las GPUs (Graphics Processing Units) modernas. Este fenómeno, junto a la creación de circuitos integrados de aplicación específica como los Tensor Cores de NVIDIA y los TPUs (Tensor Processing Units) de Google, han sido de vital importancia en la aceleración de aplicaciones científicas. En particular, el hardware mencionado se utiliza en el contexto del algebra lineal numérica dispersa para acelerar la operación de multiplicación de matrices dispersas (SpMM). En este trabajo se presenta una descripción conceptual del formato de almacenamiento disperso bmSPARSE y de algoritmos para computar SpMM de forma eficiente utilizando dicho formato. Luego se describen y evalúan distintas implementaciones en GPU, haciendo énfasis en optimizaciones basadas en Tensor Cores.
2021 | |
GPU Tensor Cores bmSPARSE SpMM |
|
Español | |
Universidad de la República | |
COLIBRI | |
https://hdl.handle.net/20.500.12008/27471 | |
Acceso abierto | |
Licencia Creative Commons Atribución - No Comercial - Sin Derivadas (CC - By-NC-ND 4.0) |