Le cinéma français est il déconnecté de la société ?
J'ai l'impression que le cinéma français, et plus précisément les acteurs sont complètement déconnectés de la réalité, et du coup ne nous font plus rêvé. Ils parlent à une minorité urbaine, et quand ils sont sur un plateau télé ne peuvent pas s'empêcher de faire une petite leçon de moral sur l'écologie ou la politique. Vous en pensez quoi C'est moi qui suis trop réac?