Wie heißt die Idee, dass Menschen Rechte zugesprochen werden?

Manche sagen, dass Menschen Rechte eingeräumt werden, und dies wird in Teilen des westlichen Rechtssystems zur Grundlage für Ansprüche. Andere Teile des westlichen Rechtssystems betrachten diese Privilegien als spezifische Bewilligungen einer Behörde – haben aber einen gleichwertigen Rechtsbehelf.

Meine Frage ist: Wie heißt die Idee, dass Menschen Rechte zugesprochen werden? (und dass diese nicht als Privilegien gelten)

Suchen Sie nach „natürlichen Rechten“ – der Idee, dass Menschen von Natur aus Rechte haben? Das Passiv, das Sie in „werden gewährt“ verwenden, erschwert die Beantwortung der Frage, weil es die Frage „von wem“ suggeriert.
Großartig - könnten Sie das zu einer Antwort erweitern?

Antworten (1)

Naturrecht – ein Rechts- oder Rechtssystem, das allen Menschen gemeinsam ist und eher von der Natur als von den Regeln der Gesellschaft oder positivem Recht abgeleitet ist. An einem bestimmten Punkt wurde es als das richtigste Gesetz angesehen, denn wenn wir dies von Natur aus haben, dann ist dies auch in Gott. Andere denken, dass wir frei nach Naturgesetzen lebten, bevor wir durch Gesellschaftsgesetze und positive Gesetze gefesselt wurden.

Hier können Sie mehr zum Thema lesen: Link 1 Link 2 Link 3 Link 4 Link 5 Auch im Internet gibt es viele Quellen, einfach googlen: Naturrecht/Naturrechte

Während dies die Frage theoretisch beantworten kann, wäre es vorzuziehen , die wesentlichen Teile der Antwort hier aufzunehmen und den Link als Referenz bereitzustellen.
Das werde ich mir merken danke für den Tipp
Bitte bearbeiten Sie dann Ihre Antwort.
@Keelan war ein bisschen faul, aber wenn der Fragesteller interessiert ist, kann er die Likes lesen, die ich gegeben habe :)
ok - Rechtspositivismus vs. Naturrecht. Habe es.