Santé

Anatomie

DéfinitionClassé sous :médecine

L'anatomie est la structure du corps de tout être vivant. Ce terme désigne aussi l'étude de cette structure.

  Les commentaires ne sont pas disponibles pour le moment.