Medicina do Trabalho

Medicina do trabalho é um ramo da medicina que lida com as relações entre homens e mulheres trabalhadores e seu trabalho, visando não somente a prevenção dos acidentes e das doenças do trabalho, mas a promoção da saúde e da qualidade de vida.