by: La RédactionPosted on: janvier 9, 2022« Wokisme »: d’où vient ce terme né dans les années 2010 aux États-Unis?Aux États-Unis, le terme « woke » a émergé dans les années 2010. Le concept s’est élargi à tous les activistes qui dénoncent les injustices subies par tout type de minorités.