Greenwashing

In aller Kürze: Was bedeutet der Begriff „Greenwashing“? Damit sind Marketingkampagnen mancher Firmen gemeint, die ein grünes Image anstreben möchten. Man versucht dadurch den Schein eines besonders ethisch korrekten, fair hergestellten oder umweltfreundlichen Produktes aufzubauen, um potentielle Konsumenten zum Kauf anzuregen. Denn: Green ist in und verkauft sich besser. Dass manche Unternehmen dann aber selbst…