Auflösen nach einer Diagonal positiv bestimmten Matrix: ΔΔ\Delta so dass b′ΔC′(CΔC′)−1=a′DC′(CDC′)−1b′ΔC′(CΔC′)−1=a′DC′(CDC ′)−1b'\Delta C'(C\Delta C')^{-1}=a'DC'(CDC')^{-1}

Jede Hilfe bei der folgenden Vermutung wäre sehr willkommen. Es fällt mir schwer, herauszufinden, wie ich anfangen soll. Obwohl Gegenbeispiele sicherlich hilfreich wären, würde mich, wenn die Vermutung nicht immer wahr ist, am meisten an den schwächsten Annahmen interessiert sein, unter denen sie wahr ist.


Lassen

  • A Und B Sei M × 1 Vektoren,
  • C willkürlich sein N × M Rangmatrix N , mit N M ,
  • Und D sei eine beliebige Diagonale positiv definit M × M Matrix.

Vermutung: Wenn A ' B > 0 , dann gibt es eine Diagonale positiv definit M × M Matrix Δ so dass

B ' Δ C ' ( C Δ C ' ) 1 = A ' D C ' ( C D C ' ) 1 .

Würde es Ihnen etwas ausmachen, ein wenig darüber zu erzählen, woher diese Vermutung kommt? Suchen Sie auch nach allen Lösungen oder nur nach einigen?
@KBS Es kommt vom Versuch, die Äquivalenz zwischen zwei optimalen Vorhersageproblemen mit Gaußschen Schocks herzustellen. Jede Seite der Gleichung ist die optimale Prognosegleichung. D Und Δ sind Kovarianzmatrizen für unkorrelierte Schocks (also diagonal und positiv definit).
Nein, ich meinte die Bedingung der Vermutung. Woher kommt die Bedingung A T B > 0 komme aus?
Eine Lösung würde übrigens reichen. Die Bedingung A ' B > 0 ist nur mit dem Setup verbunden, an dem wir interessiert sind, also hätte ich es wahrscheinlich einfach mit den anderen Definitionen zusammenfügen sollen. Meine Vermutung ist eigentlich, dass es möglich wäre, zu finden Δ auch wenn es nicht hält.

Antworten (1)

Ich habe einen Anfang einer Antwort. Ich werde es aktualisieren, wenn ich Fortschritte mache.

Annehmen η R M so dass C η = 0 . Dann kann man definieren A B = D 1 η Und Δ = a D für alle a > 0 . Beachten Sie, dass es dafür keinen Grund gibt A T B > 0 seien Sie in diesem Fall zufrieden.

Es ist auch möglich, das Kronecker-Kalkül für dieses Problem zu verwenden. Definieren M := D C T ( C D C T ) 1 C . Dann schreibt die Gleichheit

( B T A T M ) Δ C T = 0.

Wir können das sofort bemerken, wenn B T A T M = 0 , dann ist die Gleichheit für alle Diagonalen erfüllt Δ 's mit positiven diagonalen Einträgen. Beachten Sie, dass wir immer auswählen können A Und B damit dies zutrifft.

Unter der Annahme, dass diese Lösung nicht zufriedenstellend ist, können wir die Gleichheit umschreiben als

( C ( B T A T M ) ) v e C ( Δ ) = 0

Wo v e C bezeichnet den Vektorisierungsoperator. Um die diagonale Struktur von zu erfassen Δ , führen wir die Matrix ein J so dass v e C ( Δ ) = J X Wo X R M ist ein positiver Vektor, der die diagonalen Einträge von enthält Δ .

Dies führt also zu dem Problem, einen solchen zu finden X so dass

( C ( B T A T M ) ) J X = 0.

Das Problem besteht also letztendlich darin, einen positiven Vektor im Nullraum einer Matrix zu finden. Aus dieser Formulierung lässt sich jedoch nichts Allgemeingültiges ableiten. Dies lässt sich jedoch recht einfach numerisch überprüfen.

Die letzte Gleichung ist in der Tat nützlich. Ich habe hier eine Folgefrage gestellt: math.stackexchange.com/q/4392372/287326