Sub- und Supermultiplikativität von Normen zum Verständnis von Nicht-Lokalität

In Bezug auf verschiedene Probleme beim Verständnis von Verschränkung und Nicht-Lokalität bin ich auf das folgende mathematische Problem gestoßen. Es ist bei weitem am prägnantesten, es in seiner mathematischsten Form auszudrücken und nicht zu sehr in den Hintergrund zu treten. Ich hoffe jedoch, dass Leute, die sich für Verschränkungstheorie interessieren, sehen können, wie interessant/nützlich das Problem ist.

Hier geht. Ich habe zwei endlichdimensionale Vektorräume A Und B und jeder ist mit einer Norm (Banachräumen) ausgestattet, so dass | | . . . | | : A R Und | | . . . | | : B R . Sowohl die Vektorräume als auch die Normen sind zueinander isomorph. Meine Frage betrifft Normen zum Tensorprodukt dieser Räume (der Einfachheit halber sagen wir nur das algebraische Tensorprodukt). A B und die dualen Normen. Lassen Sie mich zunächst etwas sagen, von dem ich weiß, dass es wahr ist.

Lem 1:
Wenn eine Norm | | . . . | | An A B erfüllt:
| | A B | | | | A | | . | | B | | (Submultiplikativität)
dann erfüllt die duale Norm
| | A B | | D | | A | | D . | | B | | D (Supermultiplikativität)

wobei wir das Dual einer Norm in der üblichen Weise als definieren
| | A | | D = S u P { | B A | ; | | B | | 1 }

Dieses Lemma taucht häufig auf, beispielsweise in der Matrixanalyse von Horn und Johnson, wo es verwendet wird, um das Dualitätstheorem zu beweisen (dass in endlichen Dimensionen das Bidual gleich der ursprünglichen Norm ist). | | . . | | D D = | | . . . | ).

Ich möchte den Status der Umkehrung wissen, die meiner Meinung nach bejaht werden wird:

Vermutung:
Wenn eine Norm | | . . . | | An A B erfüllt:
| | A B | | | | A | | . | | B | | (Supermultiplikativität)
dann erfüllt die duale Norm
| | A B | | D | | A | | D . | | B | | D (Submultiplikativität)

Meine Frage ist einfach "ist meine Vermutung wahr oder hat jemand ein Gegenbeispiel?".

Obwohl ich geneigt bin zu glauben, dass die Vermutung wahr ist, ist sie sicherlich nicht so einfach zu beweisen wie das zuerst genannte Lemma (das ein 3-4-zeiliger Beweis ist). Die Asymmetrie geht in die Definition einer dualen Norm ein, die es uns erlaubt, eine trennbare Antwort zu "erraten", um den Preis, dass wir die Größe der Norm unterschätzt haben, aber wir können sie nicht so leicht überschätzen!

Antworten (1)

Die Umkehrung gilt offensichtlich nicht. Die Asymmetrie zwischen Supermultiplikativität und Submultiplikativität entsteht dadurch, dass die duale Norm immer als Supremum und nie als Infimum definiert wird.

Um ein Gegenbeispiel zu sehen, wählen Sie eine Richtung nach innen A B , zum Beispiel eine Richtung von Vektoren, die die Form haben A B , und in einer sehr kleinen "Strahlen" -Nähe dieser Richtung, definieren Sie die Norm auf dem Tensorproduktraum als

| | v | | = 1000 | | A | | | | B | |
Die Supermultiplikativität wird offensichtlich immer noch gelten, weil wir die Norm irgendwo auf dem Tensorproduktraum erhöht haben, während wir sie auf dem Rest konstant gehalten haben.

Die duale Norm schießt jedoch durch diese winzige Änderung in die Höhe, weil sie über allem steht C mit | | C | | 1 welches beinhaltet C A B wo die Norm verstärkt wurde. Dementsprechend wurde die duale Norm für bestimmte duale Vektoren im Wesentlichen auf das 1.000-fache dessen erhöht, was sie zuvor war, und ist nicht mehr submultiplikativ.

Achtung: Das obige Argument ist falsch. habe ich falsch interpretiert | B A | als etwas, das von der ursprünglichen Norm abhängt, aber nicht. Die umgekehrte Implikation ist wahrscheinlich zumindest für einige "konvexe" Normen richtig, für die das Umschalten zwischen der Norm und der dualen Norm vollständig reversibel ist. Bitte posten Sie vollständigere Antworten, wenn Sie sie konstruieren können.

OK, ich denke, dass das grundlegende Argument immer noch leicht behoben werden kann. Nehmen Sie eine natürliche Norm und definieren Sie sie neu

| | v | | = 0,001 | | A | | | | B | |
nur für einige v von der Form sein C M ( A B ) Wo A , B sind einige generische Vektoren, M ist eine Transformation in der Nähe der Identität, die nicht in die Tensorprodukte von Transformationen auf den beiden Räumen faktorisiert werden kann, und C R . Diese Reduktion der Norm beeinträchtigt die Supermultiplikativität nicht, da diese Bedingung nur die Tensorprodukte einschränkt und dies keines ist. Jedoch auf dem dualen Raum, ( A B ) D von irgendeiner dualen Form berechnet wird, wird nicht submultiplikativ sein, da es sogar von "nahen" Vektoren auf dem ursprünglichen Raum beeinflusst wird, und wir erlaubten einigen sehr langen Vektoren (gemäß der ursprünglichen Norm), das Supremum zu beeinflussen.

Das gilt also nicht für ausreichend ungewöhnliche Normen. Eine Art Konvexität, die garantieren würde, dass die Dualisierungsprozedur im Quadrat zu Eins steht, könnte ausreichen, um zu garantieren, dass Ihre umgekehrte Aussage gültig ist.

Danke für deine Antwort. Obwohl ich nicht sicher bin, ob ich verstehe, warum Sie sagen, dass dies dazu führt, dass die duale Norm in die Höhe schießt, hätte ich gedacht, dass dies dazu führt, dass sich die Norm bestimmter dualer Vektoren um das 1.000-fache verringert. Wenn wir setzen | | A | | = | | B | | = 1 Dann | | A B | | = 1000 nicht kleiner als 1 ist und somit nicht in die Einheitskugel fällt, über die das Höchste bewertet wird. Einfacher, wenn wir die duale Norm äquivalent als sup over formulieren | u v | / | | v | | dann sieht es nach einer ad hoc erhöhung aus | | v | | wird nur die duale Norm verringern.
Um das oben Gesagte zu erweitern. Nehmen Sie an, dass die Basisnormen die 2-Norm sind, und so weiter A B wir haben eine norm st | | v | | | | v | | 2 . Wenn v = A B , und verwenden | | A B | | 2 = | | A | | 2 | | B | | 2 , folgt Superadditivität. Aus dieser Subaddivität folgt, as | | v | | D = sup v { | u v | / | | u | | } sup v { | u v | / | | u | | 2 } = | | v | | 2 . Von diesem Putten v = A B und Multiplizität der 2-Norm erhalten wir Subaddivität.
Wenn wir Ihr Beispiel expliziter machen. Wir sagen zB wenn u = J , k C J , k A J B J ist eine Zerlegung in eine bestimmte Basis und dann zu definieren | | u | | = J , k D J , k C J , k 2 Wo D J , k = 1000 Wenn J = k = 1 Und D J , k = 1 andernfalls folgt daraus | | u | | | | u | | 2 also muss das Dual wirklich submultiplikativ sein!
Vielleicht ist meine Argumentation falsch, danke für den Hinweis. Werde es mir nochmal anschauen.
Lieber @Earl, ich denke, dass ich den Fehler in meiner Argumentation behoben habe und die Schlussfolgerung unverändert ist. Reduzieren Sie die ursprüngliche Norm auf 1/1000 davon in einem Strahl von Vektoren, die "fast" Tensor-faktorisierbar sind. Dies beeinträchtigt die Supermultiplikativität nicht, da nur strenge Tensorprodukte eingeschränkt sind. Die duale Norm wird jedoch von dieser Änderung betroffen sein, sogar die duale Norm faktorisierbarer Vektoren, und sie wird etwa 1.000 Mal springen und die Submultiplikativität beeinträchtigen. Einverstanden? Eine gewisse Konvexität oder Dreiecksungleichung für die Norm könnte ausreichen, um variable Normen meines Typs zu verbieten und Ihren Satz wiederzubeleben.
Ah ich sehe. Ich denke, Ihre Korrektur funktioniert jetzt. Lassen Sie mich ein noch konkreteres Beispiel durcharbeiten. In Betracht ziehen u auf dem Intervall u λ = λ A 0 B 0 + ( 1 λ ) A 1 B 1 , und definiere eine solche Norm | | u | | = ( 2 λ 1 ) 2 + ϵ Wo ϵ ist klein, aber ungleich Null (z. B. 1/1000). | | u | | ist supermultiplikativ auf Tensorprodukten und konvex. Dann | | A 0 B 0 | | D | u λ = 1 / 2 v | / | | u λ = 1 / 2 | | = 1 / ( 2 ϵ ) die beliebig groß gemacht werden kann.
Abschließend noch ein Kommentar. Ich denke, die Bedingungen, unter denen das Gegenteil gilt, sind genau dann, wenn es eine Kreuznorm gibt η ( u ) (zB die kleinste Kreuznorm) so dass | | u | | η ( u ) . Dann kann man dem Argument folgen, das ich ein paar Kommentare weiter oben für den spezifischeren Fall der 2-Norm verwendet habe. Ihre Gegenbeispiele sind jedoch so stark konvex, dass sie niedrigere Werte erreichen als jede Kreuznorm.
Lieber @Earl, ich dachte, dass meine pathologischen Gegenbeispiele (ihr Satz von Vektoren mit einer Norm kleiner als 1) zutiefst nicht konvex sind, anstatt zutiefst konvex zu sein! ;-)