dénaturer
Définitions
Dénaturer employé comme verbe
- Altérer une chose dans sa nature ou dans ses qualités, faire qu'elle ne soit plus ce qu'elle était ou ce qu'elle devrait être.
- Rendre impropre à la consommation humaine certains aliments, pour les destiner à des usages industriels, en y mélangeant certaines substances.