Anatomía

Término Definición
Anatomía
f. ciencia que estudia la estructura y forma de los seres vivos, los órganos que los constituyen y las relaciones que existen entre ellos.

Buscar términos

Buscar Términos dentro del Diccionario (puedes emplear expresiones regulares)
 
 
Respondemos tus dudas médicas desde cualquier lugar! A qué esperas para registrarte de forma gratuita en https://faqsmedical.com
Toggle Bar