Was sind Amphibien

Amphibien sind Tiere, die sowohl an Land als auch im Wasser leben können. Es wird allgemein angenommen, dass sie das evolutionäre Bindeglied zwischen Reptilien und Säugetieren sind. Dank der bahnbrechenden Arbeit von Wissenschaftlern wie Jan Bergstrom und George McGowan in den frühen 1900er Jahren wissen wir heute viel mehr über Amphibien als früher. In diesem … Weiterlesen

Warum sind Amphibien in Deutschland bedroht

Immer mehr Menschen genießen die freie Natur. Der Aufenthalt in der Natur ist gut für unser körperliches und geistiges Wohlbefinden. Es gibt viele Möglichkeiten, wie wir alle dazu beitragen können, Wildtiere und ihre Lebensräume zu schützen. Eine der einfachsten Möglichkeiten ist, die Umwelt um uns herum genau im Auge zu behalten. Wir können die Belastung … Weiterlesen