Le droit du travail est une discipline qui, avec le droit de la sécurité sociale composent le droit social, branche intégrée au droit privé.

Il peut être défini comme étant l’ensemble des règles d’origine internationale, législative, réglementaire et conventionnelle qui régissent les rapports de travail dépendants entre employeurs et travailleurs, que ces rapports soient individuels ou collectifs.