Les évolutions du droit du travail dans les entreprises

Dans les entreprises, c’est le droit du travail qui régit les relations entre l’employé et l’employeur. Il a été créé en France au XIXème siècle pour protéger le salarié, car à l’époque, on le voit comme la partie faible dans cette relation. Depuis le XIXème siècle, ce droit a bien évolué. Faisons un aperçu de cette évolution.

Rappel de la

A découvrir également : Avocats en droit du travail à Versailles : votre allié pour toutes vos démarches

The post Les évolutions du droit du travail dans les entreprises appeared first on Autoentrepreneur-pratique.fr.

A lire aussi : Conseils en droit du travail : Qui consulter ?