Feature-Vektor-Verkettung

Beim maschinellen Lernen (und nicht nur) kommt es häufig vor, dass verschiedene Merkmalsvektoren zu einem einzigen Vektor höherer Dimension verkettet werden, der dann von einer Funktion verarbeitet wird. Beispielsweise werden Merkmalsvektoren, die für ein Bild mit unterschiedlichen Maßstäben berechnet wurden, verkettet, um einen mehrskaligen Merkmalsvektor zu bilden, der dann weiter verarbeitet wird.

Das Kombinieren von Vektoren durch Verkettung erscheint mir jedoch irgendwie künstlich (wir stapeln sie einfach und verwenden dann eine Funktion, die in einem höherdimensionalen Raum operiert):

z = v w = [ v 1 , , v N ] T [ w 1 , , w M ] T = [ v 1 , , v N , w 1 , , w N ] T R N + M ,

F ( z ) : R N + M R k .

Zunächst möchte ich fragen, ob es eine formale Definition von Verkettung als Abbildung auf einen höherdimensionalen Raum gibt (vielleicht in Form einer Matrixmultiplikation). Was kann über den Raum gesagt werden, in dem die verketteten Vektoren leben? Insbesondere wenn der zweite Vektor fest ist, werden die durch den ersten Vektor repräsentierten Punkte auf einen höherdimensionalen Raum abgebildet, aber sie werden auf den Unterraum beschränkt R N R N + M senkrecht zu den übrigen Achsen N + 1 , M . Es ist wie eine vielfältige Einbettung.

Abschließend habe ich mich gefragt, ob es Alternativen zur Verkettung für eine effektive Kombination von Merkmalsvektoren gibt.

Antworten (2)

Gibt es eine formale Definition der Verkettung als Abbildung auf den höherdimensionalen Raum (vielleicht in Form einer Matrixmultiplikation)

Formal würde die Abbildung ein Paar von Vektoren in einen höherdimensionalen Vektor abbilden, es wäre also eine Abbildung

C : R N × R M R N + M

aber die Matrix der Zuordnung hängt wie immer von der Basis ab, die Sie sowohl in der Domäne als auch in der Kodomäne verwenden. Die Matrix ist, wenn man die offensichtlichen Basisvektoren wählt, einfach die Identitätsmatrix. Mit anderen Worten, das Mapping ist ehrlich gesagt ziemlich langweilig, was die Mathematik betrifft.

Tatsächlich die Vektorräume R N × R M Und R N + M sind so ähnlich, dass sie in der linearen Algebra normalerweise als "derselbe" Raum betrachtet werden. Das ist eigentlich der Grund für die Notation R k Im Algemeinen.

Wenn Sie streng formal sein wollen, können Sie definieren A × \B × C als ( A × B ) × C , oder Sie können es als definieren A × ( B × C ) . Und die ehrliche Wahrheit ist, dass es niemanden interessiert, welche Definition Sie verwenden, da alle Ergebnisse mit einer von beiden vollkommen gültig sind. Ebenso können Sie definieren R N als

R 1 = R R k + 1 = R k × R

oder als

R 1 = R R k + 1 = R × R k

und von da an ist es egal.


Abschließend habe ich mich gefragt, ob es Alternativen zur Verkettung für eine effektive Kombination von Merkmalsvektoren gibt.

Was meinst du mit effektiv? Diese Frage kann sehr schnell aus dem Rahmen der Mathematik fallen, da "effektiv" oft dadurch definiert wird, wie nützlich es in der realen Welt ist.

Dennoch möchten Sie vielleicht PCA (Principle Component Analysis) oder andere Methoden zur Dimensionsreduktion nachschlagen. Aber wie gesagt, das ist eher eine Frage für https://datascience.stackexchange.com/

Danke für die Antwort! Gibt es in dem Beispiel, das ich mit einem festen zweiten Vektor gegeben habe, etwas Interessantes, das gesagt werden kann? Vereinfacht gesagt, wenn der erste Vektor ein beliebiger 2D-Vektor und der zweite Vektor ein fester 1D-Vektor c ist, dann führt die Verkettung von ihnen zu einem 3D-Vektor, aber effektiv leben die durch solche Vektoren dargestellten Punkte auf der 2D-Ebene z= C. In höheren Dimensionen ist das schwer vorstellbar. Es ähnelt dem Beispiel zum Einbetten einer 2D-Kugel in R^3.
@orbit Was Sie beschreiben, ist dann eine affine Abbildung, und ihre Reichweite wäre eine Hyperebene.

Per Definition der direkten Summe zweier Vektorräume, sagen wir R N Und R M , die direkte Summe R N R M ist die Menge der Elemente ( u , v ) , Wo u R N Und v R M . Dann kann man einen Isomorphismus aus definieren R N R M R N + M durch die Karte ( u , v ) ( u 1 , , u N , v 1 , , v M ) . Die Konstruktionen, die "offensichtlich" aussehen, wie einfaches Stapeln, werden oft einfach durch Isomorphismen beschrieben. Dies sind die Karten, die Ihnen sagen, wann zwei Strukturen gleich sind, manchmal bis hin zur offensichtlichen Notation. Hoffe das hilft :)