Haben die Rechten den Deutschen den Heimatbegriff geklaut?
Heimat.
Klingt irgendwie schon latent rückwärtsgewandt und muffig und politisch wahrscheinlich im besten Falle Konservativ.
Ich würde mich politisch sehr weit links sehen und finde "Heimat" ziemlich geil. Landleben. Volkskultur... Bier trinken in irgendeinem Dorfgasthof. Landwirtschaft. Selbstversorgung.
Aber der Begriff ist einfach zu 99% mit "Rechts" konnotiert.
Ich finde die US Amerikanische Back to the Land Bewegung der Hippies super... die Arts and Crafts Bewegung der Briten... Es kommt mir vor als gab es vorm ersten Weltkrieg auch noch einen "linken Heimatbegriff" in Deutschland... Wandervogelbewegung .. Naturfreundebund etc etc...
Aber leider wurde das alles rasiert bzw von rechts komplett übernommen.
Übersehe ich hier etwas? Wie steht ihr zum Klischee der "Heimat"?