Zwei Reihenbeziehungen, jede impliziert die andere - aus Andrews' Partitionsbuch

Das ist meine erste Frage hier, und ich wurde ermutigt zu posten, weil meine Frage in MathOverflow ( HIER ) schön und schnell beantwortet wurde. Aber meine Fragen sind nicht auf Forschungsebene ...

Wie ich dort sagte, arbeite ich an einer Monographie über Partitionen, und ein behandeltes Thema ist das Problem von Simon Newcomb. Mein wichtigster Leitfaden ist das erstaunliche „The Theory of Partitions“ von George Andrews. Ich hatte zwei Probleme, einige Beweise für das Buch zu verstehen: Eines wurde durch meine Frage bei MO gelöst, und das andere wird unten erklärt.

Das folgende Lemma ist in Andrews Buch ...

Lemma.

Lassen R eine ganze Zahl sein, und lassen A 1 , A 2 , A 3 , , B 1 , B 2 , B 3 , beliebige Zahlen sein. Jede der folgenden Beziehungen impliziert die andere:

(1) A N = J = 0 N 1 ( R N + J J ) B N J , N 1 ; (2) B N = J = 0 N 1 ( R N + J J ) ( 1 ) J A N J , N 1.

Ich bitte um einen elementaren, in sich geschlossenen Beweis ohne Verwendung der Chu-Vandermonde-Summation . Wenn es Generierungsfunktionen verwendet, besser, aber binomiale Identitäten wären auch großartig.

Ein offensichtlicher Hinweis von Andrews ist, dass man einfach beweisen kann, dass (2) (1) impliziert, denn sobald dies geschehen ist, beweist eine einfache „Variablenänderung“ die umgekehrte Implikation, dh, betrachte einfach B N ' = ( 1 ) N B N Und A N ' = ( 1 ) N A N .

Es tut mir leid für diese grundlegende Frage und danke im Voraus für die Aufmerksamkeit!

Was ist R ? Unter der Annahme, dass die Formel wie geschrieben korrekt ist, scheint dies eine Variante der binomialen Inversionsformel zu sein. Der natürliche Weg, dies zu beweisen, wäre die Verwendung von erzeugenden Funktionen. Jedes einführende Buch zur Kombinatorik, das eine Diskussion über das Erzeugen von Funktionen enthält, sollte die binomiale Inversionsformel als eines der Beispiele/Übungen enthalten.
Eine Interpretation Ihres Identitätspaares ist, dass es eine einfache Aufgabe ist, Pascal-Matrizen zu invertieren ...
@sweetjazz: R ist eine positive ganze Zahl. Ich habe versucht, es mit der Generierungsfunktion zu beweisen, aber mein Wissen über GF ist nicht so groß, und leider konnte ich es nicht beweisen.
Es funktioniert tatsächlich für beliebige Real R solange du definierst ( z k ) für beliebige real z und Ganzzahl k .
@Thomas Andrews: Du hast Recht ... aber im Rahmen meines Problems, R positive ganze Zahl genügt!Trotzdem danke...

Antworten (3)

Betrachten Sie die formelle Serie

F ( X ) = N = 1 A N X N Und G ( X ) = N = 1 B N X N
Dann (1) ist äquivalent zu
F ( X ) = N = 1 J = 0 N 1 ( R N + J J ) B N J X N = N = 1 J = 1 N ( R J N J ) B J X N = J = 1 N = J ( R J N J ) B J X N = J = 1 N = 0 ( R J N ) B J X N + J = J = 1 B J ( 1 + X ) R J X J (A) = ( 1 + X ) R G ( X 1 + X )
Und (2) ist äquivalent zu
G ( X ) = N = 1 J = 0 N 1 ( R N + J J ) ( 1 ) J A N J X N = N = 1 J = 1 N ( R J N J ) ( 1 ) N J A J X N = J = 1 N = J ( R J N J ) ( 1 ) N J A J X N = J = 1 N = 0 ( R J N ) ( 1 ) N A J X N + J = J = 1 A J ( 1 X ) R J X J (B) = ( 1 X ) R F ( X 1 X )
Einfache algebraische Substitutionen ergeben das (A) Und (B) sind gleichwertig. Daher, (1) Und (2) sind gleichwertig.

Hervorragender Beweis ... genau das, was ich brauche! Vielen Dank, dass Sie sich die Zeit für meine Frage genommen haben...
Guilherme, danke @MikeSpivey. Wenn er seine Antwort nicht gepostet hätte, bevor ich die vorherige Antwort beendet hatte, an der ich arbeitete, hätte ich diese nicht geschrieben.
Professor Mike Spivey hat meine Woche gerettet ... er hilft mir sehr, sowohl hier als auch bei MO ... also nochmals vielen Dank, Professor! Ich mag diese Art des Funktionsbeweises, weil es so einfach ist...

Wie in den Kommentaren erwähnt, ist dies eine Variation der binomialen Inversionsformel k = M N ( 1 ) k M ( k M ) ( N k ) = δ M N . Beweise für diese Formel (die ich verwenden werde) finden Sie in dieser math.SE-Frage . Es kann auch leicht mit der trinomischen Revisionsformel bewiesen werden, die ich unten zitiere. Aus einer anderen Perspektive besagt die Binomialinversion, dass die Pascal-Matrix (bis zum Vorzeichen) ihre eigene Umkehrung ist. Weitere Informationen dazu finden Sie unter " Kombinatorische Interpretation der Binomialinversion " und in meiner Antwort auf "Stirling-Zahlen und inverse Matrizen".

Für Ihr Problem werde ich das nur beweisen (2) (1) , da dies, wie Sie bemerken, ausreichend ist.

Zuerst neu indizieren (1) Und (2) um die einfacheren Formen zu erhalten

(1) A N = J = 1 N ( R J N J ) B J ,
(2) B N = J = 1 N ( R J N J ) ( 1 ) N J A J .

Unter der Annahme, dass (2) wahr ist, und beginnend mit der rechten Seite von (1), haben wir

J = 1 N ( R J N J ) B J = J = 1 N ( R J N J ) k = 1 J ( R k J k ) ( 1 ) J k A k = k = 1 N J = k N ( R J N J ) ( R k J k ) ( 1 ) J k A k .
Wenden Sie nun die trinomiale Revisionsformel an ( R M ) ( M k ) = ( R k ) ( R k M k ) . (Dies ist leicht zu beweisen; schreiben Sie einfach die Binomialkoeffizienten in Fakultätsform und gruppieren Sie sie neu. Als Referenz siehe Konkrete Mathematik , 2. Auflage, S. 168.) Wir erhalten
k = 1 N J = k N ( R N ) ( N J ) ( R J ) ( R J ) ( J k ) ( R k ) ( 1 ) J k A k = k = 1 N ( R N ) ( R k ) A k J = k N ( N J ) ( J k ) ( 1 ) J k .
Dann ergibt die binomiale Umkehrung
= k = 1 N ( R N ) ( R k ) A k δ N k = ( R N ) ( R N ) A N = A N .

Verflucht seist du! Ich hatte einen ähnlichen Beweis fast abgeschlossen, als Ihre Antwort eintraf. Also begann ich mit einem Beweis für eine Generierungsfunktion. :-)
@robjohn: Ich weiß nicht, wie oft mich auf dieser Seite jemand anderes mit der gleichen Antwort knapp geschlagen hat. :-)
Nochmals vielen Dank, Professor Mike Spivey ... Sie haben mir bereits bei meiner MO-Frage geholfen ... Ihr Beweis ist sehr gut!
@Guilherme: Gern geschehen; froh, dass ich helfen konnte.
Vorsicht mit diesen Brüchen: ihren Nennern ( R J ) Und ( R k ) kann null sein.
Verwenden Sie zur Vereinfachung besser die trinomiale Revision ( R J N J ) ( R k J k ) als ( R k R N ) ( N k N J ) ; Verwenden Sie dann die Formel, um die alternierende Summe einer Reihe von Pascal-Dreiecken zu erhalten J = k N ( 1 ) J k ( N k N J ) = δ N , k , was alles bis auf die vereinfacht A N wir suchen nach.

Es ist ziemlich einfach, diesen Beweis brutal zu erzwingen, nur durch Substitution und zwei grundlegende Identitäten. Es ist tatsächlich wahr für willkürlich R R , solange Sie definieren ( z k ) für beliebige real z und nicht negative ganze Zahlen k .

Gegeben (1), ersetze die A N J auf der rechten Seite von (2), um das zu bekommen, was Sie wollen:

B N = J = 0 N 1 k = 0 N J 1 ( 1 ) J ( R N + J J ) ( R N + J + k k ) B N J k

Sammelbegriffe, der Koeffizient von B N M auf der rechten Seite steht (wobei zu beachten ist, dass j+k=m oder dass k=mj):

J = 0 M ( 1 ) J ( R N + J J ) ( R N + M M J )

Beachten Sie, dass dies eine Funktion von ist R N , also können wir schreiben:

F M ( z ) = J = 0 M ( 1 ) J ( z + J J ) ( z + M M J )

Also ist die rechte Seite von (2) nach der Substitution:

M = 0 N 1 F M ( N R ) B N M

Aber ( z + M M J ) ( z + J J ) = ( z + M M ) ( M J ) . Sie können dies algebraisch ziemlich leicht sehen, oder Sie können es kombinatorisch für nicht negative ganze Zahlen beweisen z , und verwenden Sie dann, dass beide Seiten Gradpolynome sind M In z , also müssen sie überall übereinstimmen.

So

F M ( z ) = ( z + M M ) J = 0 M ( 1 ) J ( M J ) = ( z + M M ) ( 1 + ( 1 ) ) M

Und deshalb F M ( z ) = 0 Wenn M > 0 , Und F 0 ( z ) = 1 .

Aber das bedeutet, dass die rechte Seite von (2) gleich ist B N .

Dieser Beweis ist auch sehr gut, danke! Tatsächlich ist der Beweis von Andrews deinem ähnlich...