PÁGINA PRINCIPAL DEL DICCIONARIO



DEFINICIÓN DE MEDICINA


La medicina es la ciencia de la salud encargada de la promoción, prevención y el tratamiento de patologías. Es la ciencia dedicada al estudio de la vida, la salud, las enfermedades y la muerte del ser humano, e implica ejercer tal conocimiento técnico para el mantenimiento y recuperación de la salud, aplicándolo al diagnósticotratamiento y prevención de las enfermedades.

Comentarios