A enfermagem é uma ciência cujo objetivo é a implantação do tratamento de doenças e o cuidado ao ser humano, individualmente, na família ou em comunidade de modo integral e holístico. No Brasil a profissão é...