PÁGINA PRINCIPAL DEL DICCIONARIO
DEFINICIÓN DE MEDICINA
La medicina es la ciencia de la salud encargada de la promoción, prevención y el tratamiento de patologías. Es la ciencia dedicada al estudio de la vida, la salud, las enfermedades y la muerte del ser humano, e implica ejercer tal conocimiento técnico para el mantenimiento y recuperación de la salud, aplicándolo al diagnóstico, tratamiento y prevención de las enfermedades.
Comentarios
Publicar un comentario