Linear unabhängige lineare Transformationen

Ich studiere derzeit einige Theorien zu einzelnen linearen Transformationen. Ich habe das Gefühl, dass ich 99% davon verstehe, aber es gibt immer noch eine Sache, die ich nicht lösen konnte. Mein Buch erklärt es, indem es darauf hinweist M N ( F ) , für ein Feld F ist ein N 2 dimensionaler Vektorraum. Sie sagen dann weiter, dass wenn { A 1 , . . . A N 2 } ist eine Grundlage für M N ( F ) , dann die linearen Transformationen { T 1 , . . . , T N 2 } , deren Matrizen bzgl { v 1 , . . . , v N } Sind A 1 , . . . A N 2 Grundlage bilden L ( v , v ) , die Menge aller linearen Transformationen aus einem Vektorraum v Zu v .

Anschließend erklären sie die linearen Transformationen T ich J L ( v , v ) gegeben von T ich J ( v J ) = v ich , T ich J ( v k ) = 0 , k J , sind eine Grundlage von L ( v , v ) über F .

Ich habe zwei Hauptfragen: (1) woher wissen wir das? T ich J sind linear unabhängig? und (2) dies kann vielleicht antworten 1, was tut T ich J L ( v , v ) meine, in der Art und Weise, wie sie es beschrieben haben? Aus irgendeinem Grund ergibt dieser Begriff / dieses Konzept dahinter für mich keinen Sinn. Ich verstehe, dass die Grundlage für M N ( F ) sind die Matrizen mit 1 in der ich , J Position, aber wie übersetzt sich dies in die linearen Transformationen, die durch gegeben sind T ich J ?

Jede nützliche Erklärung wäre sehr willkommen.

Wenn ich die Notation zum Beschreiben lese T ich J , kann ich nicht anders, als zu denken, da es eine und nur eine lineare Transformation wie diese gibt T ( v ich ) = v ich , dass wir Wiederholungen der gleichen linearen Transformationen als Grundlage haben L ( v , v ) , und damit die Dimension von L ( v , v ) würde nicht sein N 2 . Aber das ist eindeutig falsch...

Antworten (1)

Beachten Sie dies während dieser gesamten Diskussion v ist ein N -dimensionaler Vektorraum. Lassen { v ich } ich = 1 , . . . , N Grundlage sein für v , dann jede lineare Transformation T L ( v , v ) wird durch seine Aktion auf der Basis eindeutig bestimmt (d. h. wohin er sendet v 1 , . . . , v N zu, dies gilt aufgrund der Linearität).

Dann für angegeben ich Und J , T ich J ist nur die Transformation, die sendet v J v ich und jeder andere v k Zu 0 . Es ist leicht zu überprüfen, ob dies tatsächlich eine lineare Transformation ist. Grob gesagt, T ich J wählt einfach den Basisvektor aus v J und schickt es an v ich ".

Sie haben recht, wenn Sie feststellen, dass es nur einen gibt T ich J so dass T ich J ( v ich ) = v ich (nämlich, T ich ich ), aber da wählen wir ich = 1 , . . . , N Und J = 1 , . . . , N separat gibt es N × N solch T ich J . Um zu sehen, dass sie linear unabhängig sind, nehmen wir an, dass

ich , J { 1 , . . . , N } A ich J T ich J = 0

ist die Nullkarte. Festsetzung J , diese Karten v J ich = 1 N A ich J v ich = 0 , also durch lineare Unabhängigkeit der Basis, A ich J = 0 .

Beachten Sie, dass wir bei all dem oben Genannten überhaupt nicht an Matrizen gedacht haben, sondern nur an Basisvektoren von v . In endlichen Dimensionen sind diese beiden Ansätze natürlich äquivalent T ich J dargestellt durch die Matrix mit 1 im ( ich , J ) -te Stelle und überall sonst Nullen.