Wenn wir mit einem Begriff der Zahl N beginnen, den wir mit F(N) als Funktion der Zeit bezeichnen, kann es dann ein entscheidbares Verfahren zur Definierbarkeit des Zahlenwachstums geben? Inspiriert von Tiplers Omega-Punkt und Thomsons Lampe , was wäre die Grenze, wenn Definierbarkeit keine Bedeutung mehr hat?
Prolog : Alles begann nach der Lektüre von The Unimaginable Mathematics of Borges' Library of Babel und der Rezension hier . Das Problem tritt auf, wenn man die Bücher katalogisiert, da die Anzahl der verschiedenen Bücher ungefähr 10 ^ 10 ^ 6 wird (jedoch kleiner als Googoolplex), was den Begriff "unvorstellbar" rechtfertigt. Susan Stepney weist in der Rezension darauf hin, dass, wenn man die Anzahl der Bücher in der Bibliothek katalogisieren möchte:
[...] Problem, eine "kurze" Beschreibung des Buches für den Katalog zu finden: Es gibt nicht genug Kurzbeschreibungen. Für die überwiegende Mehrheit der Bücher in der Bibliothek ist die kürzeste Beschreibung (die sie von anderen Büchern unterscheidet) das Buch selbst. Die meisten Bücher lassen sich nicht auf eine kurze Beschreibung "komprimieren".
Und dann kommt die Pointe:
Oder, wie Bloch es ausdrückt, die Bibliothek ist ihr eigener Katalog .
Das bringt mich zu meinem Gedankenexperiment:
Gedankenexperiment : Angenommen, ich tippe eine einzelne Ziffer „1“ ein und sterbe dann, während mein Daumen „für immer“ auf „0“ fixiert ist. Ist es möglich, dass bei der Nummer
1000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000...
nimmt ständig zu, gibt es eine interessante Veränderung in unserem Verständnis und unserer Philosophie des Zahlensystems?
Kürzliche Bearbeitung : Genauer gesagt zwei Punkte: 1) genauso wie die Bibliothek zu ihrem "eigenen Katalog" wird, wenn eine Nummer unzugänglich groß wird, kann es eine Selbstreferenz geben, die zu Paradoxien führt? 2) Was sind dann die Implikationen des Poincare-Rekursionssatzes? [ Letzteres wurde bereits von Robert Munafo über nicht-wörtliche Bedeutung geklärt ]
Hintergrund : Dies hängt mit meiner früheren Frage zur Kunnen-Inkonsistenz in Math.SE zusammen. Ich habe jedoch immer noch Probleme, das Verhalten großer Zahlen zu verstehen, selbst wenn ich hier eine definitive Website zu großen Zahlen konsultiere
Ich las einen Aufsatz von Douglas Hofstadter über große Zahlen On Number Numbness , aber wieder drehte sich das Argument in Richtung philosophischer Interpretation.
Frage : Wie ist das Verhalten großer Zahlen zu verstehen? Meine Motivation ist aus der Perspektive des Poincare-Wiederholungssatzes a la Don Pages alternativer Universumszahl oder Skewes-Zahl . Bricht die Logik, wie wir sie kennen, „zusammen“?
BEARBEITEN:
Hier ist der relevante Teil von On Number Numbness , den ich bei der Formulierung von OP im Sinn hatte:
Wenn Sie vielleicht anfangen würden, sich mit Zahlen mit Millionen oder Milliarden von Ziffern zu befassen, würden die Zahlen selbst (die kolossalen Ziffernfolgen) nicht mehr sichtbar sein, und Ihre Wahrnehmungsrealität wäre gezwungen, einen weiteren Sprung nach oben in der Abstraktion zu machen die Zahl, die die Stellen in der Zahl zählt, die die Stellen in der Zahl zählt, die die betreffenden Gegenstände zählt. Unnötig zu erwähnen, dass eine solche Wahrnehmungsrealität dritter Ordnung höchst abstrakt ist. Außerdem kommt es selbst in der Mathematik sehr selten vor. Dennoch können Sie sich vorstellen, weit darüber hinauszugehen. Wahrnehmungsrealitäten vierter und fünfter Ordnung würden in unserer rein abstrakten Vorstellung schnell Wahrnehmungsrealitäten zehnter, hundertster und millionster Ordnung weichen .Zu diesem Zeitpunkt hätten wir natürlich den Überblick über die genaue Anzahl der Ebenen verloren, die wir verschoben hatten , und wir würden uns mit einer bloßen Schätzung dieser Zahl begnügen (natürlich auf zehn Prozent genau) . „Oh, ich würde sagen, dass hier ungefähr zwei Millionen Ebenen der Wahrnehmungsverschiebung beteiligt waren, plus oder minus ein paar Hunderttausend“, wäre ein typischer Kommentar für jemanden, der mit solch unvorstellbaren Mengen zu tun hat. Sie können sehen, wohin das führt: zu mehreren Abstraktionsebenen, wenn Sie von mehreren Abstraktionsebenen sprechen. Wenn wir unsere Diskussion nur eine Millisekunde länger fortsetzen würden, würden wir uns mitten in der Theorie der rekursiven Funktionen und der algorithmischen Komplexität wiederfinden, und das wäre zu abstrakt. Also lassen wir das Thema hier fallen.
Relevanter Teil hervorgehoben.
Ich habe meine Antwort etwas überarbeitet, an einigen Stellen gekürzt und andere Ideen hinzugefügt, als Antwort auf Ihre Überarbeitung Ihrer Frage.
Betrachten Sie zunächst Zahlen, die eine "konzeptionelle Verschiebung" beinhalten, wie in dem Zitat von Hofstadter angedeutet. Sie können sich gut beklagen, dass es zwar mindestens 300 von etwas geben kann ( z. B. Markierungen von Hohlkreisen), aber nach unserem besten Wissen kann es niemals messbar 10 300 gebenvon irgendetwas. Lassen Sie uns der Argumentation halber zugeben, dass die letztere Behauptung wahr ist. All dies bedeutet genau das, was den Physikschülern implizit beigebracht wird: dass wir mathematische Modelle der Welt haben, die, weil sie einfach sind, Komplikationen, die der Welt innewohnen, nicht erfassen können. So wie wir vollkommen starre, kugelförmige Kühe betrachten, die unter dem Einfluss eines vollkommen gleichförmigen Gravitationsfeldes ins Vakuum fallen, können wir uns eine Anzahl von Objekten vorstellen, die so groß ist, dass wir uns eigentlich nicht konkret vorstellen können, wie eine solche Ansammlung von Objekten überhaupt aussehen würde. und die wahrscheinlich nie Phänomene darstellen, denen wir jemals begegnen werden. Der Grund für beide liegt in der einfachen Formulierung der Modelle in beiden Fällen: Newtonsche Mechanik einerseits, Arithmetik andererseits.
Die Vorstellung, Schichten von konzeptuellen Verschiebungen anzuhäufen, wie sie von Michael Dorfman in den Kommentaren zu seiner eigenen Antwort vorgeschlagen wurde, ähnelt Knuths Aufwärtspfeil-Notation . Aber der springende Punkt dabei und sogar bei unserem vertrauten indo-arabischen Zahlensystem ist, dass wir mit Zahlen nur durch Repräsentationen von ihnen umgehen (selbst wenn diese Repräsentationen durch visuelle Bilder von Objekten wie Äpfeln erfolgen). Ein Googol ist, in sehr grober praktischer Hinsicht, unvorstellbar groß (insofern kann man sich ein Googol von Objekten nicht wirklich vorstellen), und ein Googolplex ist unvorstellbar größer als das (insofern ist es nicht wirklich möglich, sich vorzustellen, wie viele Kisten mit ein Googol-Objekt würde ausreichen, um einen Googolplex zu erstellen). Aber die Tatsache, dass wir sie durch 10 10 2 und 10 darstellen können10 10 2 bedeutet, dass wir immer noch darüber sprechen können und uns die Zahlen irgendwie abstrakt vorstellen können.
Ist es Betrug, so absurd große Zahlen auf diese Weise schreiben zu können – verbirgt es die Tatsache, dass wir die Bedeutung dieser Zahlen irgendwie nicht vollständig erfassen können? Nun ja, es verbirgt vielleicht die Tatsache, dass wir diese Zahlen nicht wirklich verstehen, außer um ihre Namen zu rezitieren, um auf banale Dinge hinzuweisen, wie zum Beispiel, dass sie Vielfache von 2 und 5 sind und perfekte Quadrate sind usw. Aber das ist es nicht nicht betrügen; Wir verstehen Zahlen wie 300 auch weniger perfekt als die Zahl 3 und verwenden die gleiche Erweiterung unserer kognitiven Fähigkeiten, um zu versuchen, 300 in den Griff zu bekommen, indem wir uns drei Gruppen von zehn Gruppen von zehn vorstellen. Nahezu die gesamte Mathematik, sogar die Arithmetik, ist in dieser Hinsicht indirekt, und während einige Menschen möglicherweise mehr Zahlen etwas direkt erfassen können, verlassen wir uns letztendlich daraufhochkomprimierte Zahlenbeschreibungen, um über Quantität zu urteilen. Als solche sind wir in unserer Betrachtung von Zahlen auf solche beschränkt, die wir irgendwie leicht beschreiben können ; und wir können über diese Zahlen nur so viel argumentieren, wie es unsere Darstellungen zulassen. Die Multiplikation war in der Antike schwierig für diejenigen, die sich auf römische Ziffern stützten; und in ähnlicher Weise gibt uns unsere Darstellung eines Googolplex wenig Intuition darüber, was zB die nächstgrößte Primzahl nach einem Googolplex ist.
Wie bei Borges Bibliothek haben "die meisten" Zahlen keine einfache Darstellung; und selbst diejenigen, die dies tun, können oberflächlich ähnliche Darstellungen haben, die es schwierig machen, sie sinnvoll zu unterscheiden. In der Tat, wenn eine „einfache“ Darstellung höchstens eine gewisse Länge haben muss, dann liegen alle bis auf eine endliche Anzahl von Zahlen jenseits aller menschlichen Denkfähigkeit. Bedeutet das, dass sie der Logik entgehen? Nun, es bedeutet sicherlich, dass wir nicht mit ihnen argumentieren können; aber es bedeutet auch, dass wir uns niemals auf produktive Weise Sorgen um ihre Eigenschaften machen müssen (oder besser gesagt, wir können uns keine Sorgen machen). Auch hier sind, wie bei den Büchern in Borges Bibliothek, die meisten Zahlen Kauderwelsch ; sie haben für uns keine besondere Bedeutung.
Wenn Sie davon ausgehen, dass „Logik“ eine menschliche Sorge um die Struktur der Welt ist und dass die Realität einfach „ist“, dann bedeutet die Sorge um die potenzielle Unlogik von Zahlen, die so groß sind, dass sie in der Realität nicht dargestellt werden können, eine Sorge um a kontrafaktisch und daher nicht von Bedeutung, außer wie sehr uns die Frage amüsiert.
Ich werde eine genauere Form dieser Frage angeben, nachdem ich offline mit dem OP korrespondiert habe. Ich hoffe, dass dies immer noch die Absicht der Frage erfasst:
In einer perfekten Welt, in der ich niemals alt werde oder hungern werde, beobachte ich einen riesigen Computerbildschirm mit genug Platz, um Billionen oder Billiarden oder sogar Centillionen von Zeichen oder Ziffern anzuzeigen.
Ich habe den Computer so eingestellt, dass er für einen Moment „1“ anzeigt, dann für einen Moment „10“ und dann „100“ und dann „1000“ und so weiter. Jeden Moment (vielleicht einmal pro Sekunde) erscheint eine andere 0. Jedes Mal, wenn eine 0 erscheint, wird eine neue Zahl angezeigt.
Kann ich das "für immer" ansehen und jedes Mal, wenn eine 0 hinzugefügt wird, eine neue Zahl wahrnehmen? Oder ist meine Fähigkeit, wahrzunehmen, zu verstehen oder mich an das zu erinnern, was ich sehe, begrenzt? Inwieweit schränkt dies unser menschliches Verständnis von Zahlen und Zahlensystemen ein?
Ich glaube, dass die Fähigkeit des Menschen, wahrzunehmen, zu verstehen, was er sieht, und sich an das Gesehene erinnert, eine Grenze hat.
Jedes Mal, wenn eine neue „0“ erscheint, unterscheidet sie sich deutlich von dem, was vor einem Moment da war. Ich weiß auch , dass jede Zahl, die ich sehe, sich von jeder der Zahlen unterscheidet, die ich zuvor gesehen habe. Aber im Laufe der Zeit werde ich immer wieder das Gefühl erleben, "was ich sehe, ist sehr groß, und ich habe sehr, sehr lange zugesehen". Dieses Gefühl wird im Laufe der Zeit immer häufiger auftreten, und schließlich werde ich in genau demselben mentalen Zustand sein, in dem ich mich zu einem früheren Zeitpunkt befunden habe.
Angenommen, ich versuche zu zählen, wie viele Nullen es gibt? Ich kann mich selbst trainieren, mir viele Fakten zu merken, Dinge, die in Buchstaben und Wörtern niedergeschrieben werden können.
Der Verstand kann sich viele Informationen merken. Vielleicht haben Sie genug Platz in Ihrem Kopf, dass es, wenn alles ausgeschrieben wäre, eine Milliarde = 10 ^ 9 Buchstaben bräuchte. Das bedeutet, dass Sie ungefähr 26 ^ (10 ^ 9) verschiedene mentale Zustände haben können, weil es so viele verschiedene Kombinationen von einer Milliarde Buchstaben mit einem 26-Buchstaben-Alphabet gibt.
Mit meiner mentalen Kapazität von 26^(10^9) "zähle" ich die Nullen, wenn sie angezeigt werden, und ich behalte es mit meinem mentalen Zustand im Auge. Wenn es 876 Nullen gibt, habe ich die Zahl „876“ im Kopf. Es gibt etwa 10^3 Nullen auf dem riesigen Computerbildschirm und 3 Ziffern in meinem Kopf. Da ich "ungefähr eine Milliarde Buchstaben" im Kopf behalten kann, bedeutet dies, dass ich die Nullen "zählen" kann, bis ungefähr 26 ^ (10 ^ 9) Nullen auf dem Bildschirm erscheinen. Dann muss ich aufgrund der begrenzten Kapazität meines Verstandes aufhören zu zählen. Darüber hinaus muss jede Wahrnehmung, wie groß die Zahl genau ist, subjektiv sein. Ich werde schließlich zweimal den gleichen „wirklich großen“ Geisteszustand haben. Die größte Zahl, die ich verstehen kann, ohne verwirrt zu sein, dass es eine andere Zahl war, ist kleiner als 10^(26^(10^9)).
Dies ist wie das "Poincare Recurrence Theorem", mit dem das OP verknüpft ist und das auf den Verstand angewendet wird. Es ist eine der natürlichen Grenzen, die beeinflussen, wie gut wir über große Zahlen nachdenken können. Ich spreche nicht vom wörtlichen Satz von Poincare, der sehr präzise und mathematisch ist. Ich benutze es nur als Metapher: Wenn ein Feld eine begrenzte endliche Größe hat und Sie auf unbestimmte Zeit auf dem Feld herumlaufen, werden Sie schließlich auf eine Stelle treten, an der Sie zuvor getreten sind.
In unserer Offline-Diskussion schlug das OP vor, dass wir größere Zahlen erhalten können, indem wir den Computer so programmieren, dass er 2 anzeigt, dann 2 ^ 2, dann 2 ^ 2 ^ 2, dann 2 ^ 2 ^ 2 ^ 2 oder (mit Worten) es könnte „zwei“, dann „zweizenzic“, dann „zweizenzizenzic“ und so weiter anzeigen (siehe http://en.wikipedia.org/wiki/Zenzizenzizenzic ). Der Bildschirm füllt sich mit 2en oder mit den Buchstaben "zenzi". Wieder einmal wird es einen Punkt geben, an dem ich keine Veränderung mehr sehen kann, oder vielleicht sehe ich eine Veränderung, aber mein Geisteszustand wird schließlich zu einem Punkt zurückwandern, an dem er irgendwann einmal war. Ich weiß, es wird jeden Moment größer, aber selbst dieser Wissensstand wird irgendwann in genau der gleichen Form wiederkehren.
Wir können dasselbe mit jeder mathematischen Notation machen, wie g(1), g(g(1)), g(g(g(1))), ... wobei g(N) die "g-Funktion" ist . beschrieben auf der Wikipedia-Seite "Graham's_number". Anstatt jedes Mal zu quadrieren, werden die Zahlen dieses Mal viel schneller größer. Vielleicht habe ich mir beigebracht, zu verstehen, was das bedeutet. Wenn ja, könnte ich dann auf dem Computerbildschirm "g(1)" anzeigen, dann "g(g(1))", dann "g(g(g(1)))" und so weiter ... aber Wieder einmal würde mein Geist schließlich seine "Poincare-Wiederholung" erreichen.
Keine noch so große Anstrengung, anspruchsvollere oder ausgefeiltere Notationen oder Methoden der Abstraktion und des Verständnisses zu verwenden, wird die endlichen Grenzen des menschlichen Geistes zur Wahrnehmung, zum Verständnis und zur Erinnerung überwinden.
Das ist alles sehr ähnlich zu dem, worum es in meiner "Superklasse 6" geht, gegen Ende meiner Diskussion über große Zahlen: http://www.mrob.com/pub/math/largenum-4.html#superclass
BEARBEITEN : Ich habe eine einfache Analogie für die "Poincare" -Referenz hinzugefügt und darauf hingewiesen, dass das mathematische Poincare-Theorem nicht relevant ist. Hier geht es um das Konzept, denselben Ort in einem begrenzten Raum erneut zu besuchen.
Das Bit „Inwieweit …“ am Ende der Neuformulierung wurde hinzugefügt, um zu versuchen, mehr von der ursprünglichen Frage einzubeziehen.
Ihr Gedankenexperiment hat eine einfache Antwort: Es ist keine Zahl, bis Sie den Daumen von der Tastatur nehmen. Bis dahin ist es nur eine Ziffernfolge. Die Platzierung der "1" (und damit ihre Bedeutung) kann bis dahin nicht interpretiert werden.
Beachten Sie, dass dies anders ist als bei der Eingabe einer Dezimalstelle; In diesem Fall dient die fortlaufende Ziffernfolge als Annäherung an die beabsichtigte Zahl, da jede Ziffer an ihrem richtigen Platz bleibt.
Der Punkt, den ich klarstellen möchte, ist, was Mahmud mit Zahl meint? Meint er die üblichen ganzen Zahlen mit ihren arithmetischen Eigenschaften?
dh (N,+) das ist N=0,1,2,3,4,... mit Addition als erlaubter Operation. Dies ist die früheste Arithmetik, die uns in der Schule vorgestellt wird.
Später wird uns gesagt, dass wir (N,+,x) haben können, das ist N=0,1,2,3,... mit Additions- und Multiplikationsoperationen.
Es wurde viel später oder vielleicht viel früher (als das Dezimalsystem in Indien und früher in China erfunden wurde) verstanden, dass die Darstellung der ganzen Zahlen nicht in der Basis 10 sein muss, sie könnte in der Basis 3 oder 123 oder sein derzeit am häufigsten, aber in Basis 2 vor uns versteckt. dh 0,1,10,11,100, ...
Das heißt, die Darstellung einer ganzen Zahl ist nicht die ganze Zahl selbst.
Obwohl ich gesagt habe, dass (N,+) das erste Zahlensystem ist, in das wir eingeführt werden, ist dies tatsächlich nicht ganz richtig. Säuglinge im Alter von sechs Monaten können sehr kleine Zahlen (KHH) unterscheiden. (Ihr Experiment unterscheidet sorgfältig eine Gruppe von zwei Äpfeln und drei Äpfeln als Benennungsakt , um 1, 2 oder 3 zu verstehen). Das heißt, dann beginnen sie, das abgeschnittene N = 0,1,2,3 zu schätzen.
Aber Zahl ist auch Quantität, das heißt, sie hat Größe; Wann erwerben Kleinkinder dieses Wissen?
Laut (MLF) erwerben sie dieses Wissen im Alter von vier Jahren. (Persönlich denke ich, dass ihre Methodik fehlerhaft ist; sie unterschätzen die Fähigkeit des Säuglings, anhand der Länge zu unterscheiden, was auch eine reine Größe ist, und angesichts der Beziehung zwischen Zahlen und Geometrie - der echten Linie - absolut sinnvoll ist. Ich würde vermuten die Fähigkeit zu unterscheiden kommt viel früher als das, ein Kleinkind unter vier Jahren kann sicherlich unterscheiden, was es bevorzugt - zwei Süßigkeiten oder vier Süßigkeiten. Sie müssen nicht formal zählen, sie können einfach den Größenunterschied sehen, und ich tue es Ich denke nicht, dass dies abgezinst werden sollte - oder zumindest ausgezeichnet)
Unser frühestes Vorschulverständnis ist also N und dann bis (N,<).
Nun verallgemeinerte Cantor die Zahl in diesem Sinne – dem Größensinn –, das heißt, er erweiterte (N, <) auf Mengen und erfand daher Kardinalzahlen. Dass es eine Art Arithmetik der Kardinalzahlen gibt, ist ein Nebenprodukt. Um also große Zahlen zu verstehen , begeben wir uns in den sogenannten transinfiniten Bereich.
Aber moderne Mengentheoretiker haben große kardinale Axiome erfunden, und sie können nach Konsistenzstärke geordnet werden. Bisher gibt es keine allgemein anerkannte Theorie über große Kardinäle, obwohl Shelah spekuliert, „ist unsere Vision einheitlicher als wir vermuten“.
Ich nehme an, es sind weniger als hundert oder so, der Reihe nach angeordnet, also sind wir in gewisser Weise wieder am Anfang, als wir mit einem Jahr bis zu, sagen wir, hundert zählen konnten ... (vielleicht ein Beispiel für Nietsches ewige Rückkehr im platonischen Bereich).
Ich biete eine andere Perspektive als das, was einige der Poster hier tun, nämlich die Erörterung kompakter Mittel zur Darstellung „großer“ Zahlen aus dem endlichen Bereich (was eine Frage der Notation ist) und was sie bedeuten können, wenn wir können sie nicht konkret ausdrücken. dh so viele Äpfel. Vielleicht beantwortet das nicht ganz Mahmuds Frage zu seinen eigenen Bedingungen ...
Anmerkungen
KHH: Kobayashi T, Hiraki K, Hasegawa T. Akustisch-visuelles intermodales Matching kleiner Zahlen bei 6 Monate alten Säuglingen.
XA: Xu F., Arriaga RI. Zahlendiskriminierung bei 10 Monate alten Kindern
MLF: Muldoon K, Lewis C, Francis B. Verwenden der Kardinalität zum Vergleichen von Mengen
Alles in Zahlenwissen in der frühen Kindheit, Catherine Sophian, PhD
Das menschliche Gehirn ist in seiner Fähigkeit, Zahlen zu komprimieren und zu abstrahieren, begrenzt. Ich habe einige Arbeiten mit großen Ordnungszahlen gemacht, aber obwohl ich eine gute Intuition habe, wird es schlammig über Googols, Googolplexes, die Ackermann-Funktion, die auf Argumente angewendet wird, die beide größer als 6 sind, Grahams Ordnungszahl und dergleichen. Es gibt einige Möglichkeiten, unglaublich große Zahlen in sehr kurzen Zeichenfolgen notational zu codieren, aber sie helfen nicht wirklich, weil das einige liebenswert kurze Formeln sind und daher verwirrend.
Menschen bestehen aus Gehirnen, Gehirne sind endlich, es gibt die größte Anzahl, die sich der menschliche Verstand in seinem Ausmaß vorstellen kann, QED.
PS. Wirklich große Zahlen sind meiner Meinung nach nicht einmal so interessant.
Alexander Becker
Scharfschützen-Clown
Alexander Becker
Scharfschützen-Clown
Rex Kerr
Stefan Schielke
Scharfschützen-Clown
Josef Weissmann
Scharfschützen-Clown
Josef Weissmann
Scharfschützen-Clown
Josef Weissmann
Scharfschützen-Clown
Lüge Ryan
Also, the last statement then rests upon faith as opposed to logic akin to saying "I can't imagine God, but I know He exists."
Im Gegenteil, wir wissen, dass eine große Zahl in der realen Welt nicht wirklich existieren kann, wenn die Anzahl der Teilchen im Universum endlich ist, aber wir wissen auch, dass wir uns eine beliebig große Zahl vorstellen können, zumindest in unserem Kopf, die wir uns vorstellen können jede große Zahl, auch wenn es in der physischen Welt nicht wirklich existiert.Lüge Ryan