Definição do termo Anatomia

(anatomia, pt, comum)

Arte de dissecar as partes dos corpos organizados.
Doutrina da estrutura das substâncias organizadas. Conjunto dos conhecimentos, resultantes da dissecção dos corpos organizados, especialmente do corpo humano.
Dissecação; autópsia. Exame minucioso.
Análise crítica.

Nomes relacionados ao termo Anatomia