Que dit le droit du travail français concernant les contrats de travail ?
Un contrat de travail est un acteliant un employeur et un salarié, dès que ce dernier commence à s’engager. Souvent, le contrat est écrit, mais il peut aussi être tacite ou verbal. En France, il existe plusieurs types de contrat…
Lire la suite