Cours 12 | Parallélisme

Titre: Parallélisme

Auteurs: Eric Goubault

Ecole: CEA, Thalès

Résumé:

Modèle de programmation – un peu de vocabulaire

  • la carte graphique=”GPU” ou “device” est utilisé comme “co- processeur” de calcul pour le processeur de la machine hôte, le PC typiquement ou “host” ou “CPU’
  • la mémoire du CPU est distincte de celle du GPU mais on peut faire des recopies de l’un vers l’autre (couteux) une fonction calculée sur le device est appelée “kernel” (noyau)
  •  le kernel est dupliqué sur le GPU comme un ensemble de threads cet ensemble de threads est organisé de façon logique en une “grid”
  • chaque clone du kernel connait sa position dans la grid et peut calculer la fonction définie par le kernel sur différentes données
  • cette grid est mappée physiquement sur l’architecture de la carte au “runtime”

Extrait du sommaire:

1 CUDA et architecture NVIDIA
2 L’abstraction logique de l’architecture proposée par CUDA
3 C versus JAVA…
4 API CUDA
5 Un exemple: addition de matrices
6 Revenons `a l’architecture…pour optimiser…
7 Un exemple: transposition de matrices
8 Pour aller plus loin…

Formation-GPU-CUDA-cours 12

Obtenir le fichier PDF: Parallélisme