Unser Gesundheitssystem ist so aufgebaut, dass wenn uns körperlich oder psychisch etwas zwickt oder belastet wir zum Arzt gehen in der Hoffnung, dieser verschreibt uns dann eine Pille, eine Creme oder eine Anwendung und dann ist wieder alles gut. Durch diese Art des Umgangs mit unserem Körper und unserer Psyche schieben wir die Verantwortung, wenn sich Disharmonie oder Krankheit manifestieren, auf eine andere Person ab. Und die Ärzteschaft lebt gut davon, die Pharmafirmen sowieso.
Doch ist das noch zeitgemäß gedacht? Oder sollten wir uns mehr um uns selbst kümmern? Dazu gehört auch, sich mehr Wissen über den eigenen Körper anzueignen. Leider wird eine Art des Wissens in unserer Gesellschaft wenig bis gar nicht publiziert. Welche?