Tensor

Spannmuskel

Der Tensor ist eine mathematische Funktion, die eine bestimmte Anzahl von Vektoren auf einen Zahlenwert abbildet. mw-headline" id="Allgemeines">Allgemeines="mw-editsection-bracket">[Editieren | | | Quellcode bearbeiten]> In dieser Formelensammlung werden Formel und Definition der Tensor-Algebra für die zweite Phase der Tensorik in der Kontinuumsmechanik zusammengefasst. wie I1, im Display-Stil, Bedienername. Exception: Die gedachte Unit i2=-1{\displaystyle \mathrm {i} ^{2}=-1} und die #Vektorvariante i?{\displaystyle {\vec {\operatorname {i} }}} ist im Gegensatz zu den Indices nicht in Kursivschrift wiedergegeben.

Vektorgrafiken: Die hier benutzten Vektorgrafiken sind geometrisch im dreidimensionalem, epiklidischen Vektorenraum.

Vektorgrafiken sind mit kleinen Buchstaben beschriftet.

In der zweiten Phase werden Sensoren verwendet, wie in A{\displaystyle \mathbf {A}. Der Satz aller Zensoren heißt L:=Lin(V,V){\}}}:=\mathrm {Lin} (\mathbb {V} {V} \mathbb {V} } }. In der vierten Ebene werden Sensoren mit einem hochstehenden Vierer angezeigt, wie in C4 {\displaystackrel {4}{\mathbf {C} Einsteins Summationskonvention ohne Berücksichtigung der Indexposition. Zum Beispiel für Totalsummen Dies trifft für die anderen Index-Gruppen zu.

Querprodukt: Drei Vektorgrafiken a?,b?,c?{\displaystyle {\vec {\a}}},{\vec {b}},{\vec {c}}} können in einer 3×3 Matrix M{\displaystyle M}-Spalte angeordnet werden: grösser als Null, wenn die Säulenvektoren zudem ein rechtmäßiges System ausbilden. Deshalb stellt |a?b?c?|>0{\displaystyle |{\begin{array}{ccc}{\vec {a}}&{\vec {b}}&{\vec {c}}}\end{array}}|>0} sicher, dass die Vektorgrafiken a?,b?,c {\vec {a}},{\vec {b}}, {\vec {c}}}, eine rechte Sockelform haben. Base h?,h?,h?,h?{\vec {h}}}}^{1},{\vec {h}}^{2},{\vec {h}}^{3}}} mit doppelter Base h?,h?,h?{\vec {h}}_{1},{\vec {h}}_{2},{\vec {h}}}_{3}}:

Matrixgleichung: Aufgrund der Eigenschaft des Dyadenprodukts wird L{Displaystyle {\mathcal {L}}} zu einem vektoriellen Raum und dementsprechend kann jeder Tensor in Bezug auf eine Base Komponente für Komponente wiedergegeben werden. Hauptsächlich aber: Vgl. auch #Hauptvarianten, #Kofaktor eines Senders. Determinante Produktmenge: Multiplizieren mit Skalen x?R {\displaystyle x\in \mathbb {R} Merkmalsgleichung: mit der Hauptvariante I2 {\displaystyle \operatorname {I}

Sonderfall: Verbindung mit dem Tensorprodukt: Verbindung mit dem externen Tensorprodukt: Verbindung mit dem Co-Faktor cof(?){\displaystyle \operatorname {cof} Holzprodukt und #bestimmend für einen Tensor: Querprodukt und #Kofaktor eines Tensors: #axialer Tensor oder Kreuzproduktmatrix: skalares Querprodukt der Tensoren: welches ein #Unit-Tensor ist: Festlegung für einen Tensor A {\displaystyle \mathbf {A} 2 Zensoren, im Display-Stil.

and B{displaystyle \mathbf {B} sind gleich, wenn: #Invarianten: Sind ?,2,3 die Eigenschaften des Tensor A, dann hat cof(A) die Eigenschaften ??, ??, ??, ??. #Hauptvarianten: Beziehung zum Adjunkten Tensor adj(A){\displaystyle {adj} Dann trifft zu: Theorem von Cayley-Hamilton: wobei I1,I2,I3 \displaystyle Operator Name {I} Invers des umgesetzten Tensors: Invers eines Tensorprodukts: Sonderfälle: mit eigenwertigen ?{\displaystyle \lambda } und eigenvector v^{\displaystyle {\hat {v}}}.

Ein Tensor hat drei eigene Werte und drei zugehörige Selbstvektoren. Bei den anderen beiden Eigenwerten und -vektoren kann es sich um reale oder komplexe Werte handeln. Der Koeffizient ist die #Hauptvariante: Cayley-Hamiltons Theorem: Sei A=A?{\displaystyle \mathbf {A} =\mathbf {A} Die symmetrischen Zensoren haben reale eigenständige Werte und eigenständige Vektoren, die rechtwinklig oder orthogonal zu einander sind und so eine orthonormale Basis bilden.

Hauptachsen-Transformation mit eigenen Werten ?i {\displaystyle \lambda _{i}}} und eigenen Vektoren a^i {\displaystyle {\hat {a}}_{i}}} der symmetrie Tensorik \displaystyle \mathbf {A} Be A=-?{\displaystyle \mathbf {A} =-\mathbf {A} Skew symmetric tensors have one real and two conjugated complex, purely imaginary eigenvalues. Das ist der wahre Wert von A{\displaystyle \mathbf {A}. ist Null, zu der ein eigener Vektor zählt, was der realen #Vektorinvariante i?(A){\displaystyle {\vec {\operatorname {i} }}}}(\mathbf {A} )} entspricht.

Sehen Sie auch #Axialer Tensor oder Kreuzprodukt-Matrix. Seien Sie unbesorgt, b, b, b, c, c, in Mathe. und a?,a?,?R?R {\vec {a}}}}_{1},{\vec {a}}}}_{2},{\vec {a}}_{3}\in \mathbb {R} und a?,a?,a?{\displaystyle {\vec {a}}}^{1},{\vec {a}}^{2},{\vec {a}}}. Eigenes System: Allgemein: Es gilt: Invarianten: Determinante Produktmenge: Unveränderliche (?{\displaystyle \alpha } ist der Rotationswinkel): Tatsächlich ist der orthogonale Tensor det(Q)=+1{\displaystyle \operatorname {det} (\mathbf {Q} )=+1}, was einer Rotation gleichkommt.

Nicht-echter rechtwinkliger Tensor det(Q)=-1{\displaystyle \operatorname {det} (\mathbf {Q} )=-1}, korrespondiert mit einer Rotationsspiegelung. Spar-Produkt: Cross-Produkt und #Kofaktor eines Tensors: Bei einem Einheitenvektor n^ {\displaystyle {\hat {n}}} und Rotationswinkel ?{\displaystyle \alpha }. Und dann die folgende Tensorik: Q{\displaystyle \mathbf {Q} Erforderliche Voraussetzungen für die Positivdefinition: Erforderliche und ausreichende Voraussetzung für die Positivdefinition: Alle eigenen Werte von A{displaystyle \mathbf {A}

Es ist immer eindeutig klar, ob det(A)det {\displaystyle \operatorname {det} (\mathbf {A} )\neq 0}: Bilineare Form: Ein eigener Wert ist Null, zwei imaginäre konjugierte Komplexe, s. #Axialer Tensor oder Kreuzprodukt-Matrix. Die Symmetrie der Sensoren hat keine #Vektorinvertierung: der funktionelle Wert des Tensors: Besonders beim Verformungsgradienten F{\displaystyle \mathbf {F}. bilde eine Grundlage im vektoriellen Raum sym(V,V)?L{\displaystyle \operatorname {sym} (\mathbb {V},\mathbb {V} )\subset {\mathcal {L}}} der zweiten Phase der Symmetrie.

In Bezug auf diese Grundlage können alle sekundären Stufen-Sensoren in Voigts Notation: wiedergegeben werden.

Die Tensorabbildung erfolgt in Fahrtrichtung durch den Tensor F. Der Tensor F entnimmt den Teil eines Vektor in Fahrtrichtung der Anzeige und I-G den Teil rechtwinklig dazu. Mit dem Tensor P wird der Teil eines Vektor in der Fläche und mit I-P der Teil rechtwinklig dazu ausgelesen. Fall A=Aije^i?e^j{\displaystyle \mathbf {A} =A_{ijij}{} {} {}}}{\hat {e}}}}_{i}\otimes{hat {e}}_{j} If A=Aija?i?b?j {\_displaystyle \mathbf {A} =A_{ij}{\vec {a}}}_{i}:

If A=A?{\displaystyle \mathbf {A} =\mathbf {A} If A=-?{\displaystyle \mathbf {A} =-\mathbf {A} Fall A=Aije^i?e^j{\displaystyle \mathbf {A} =A_{ijij}{} {} {}}}{\hat {e}}}}_{i}\otimes{hat {e}}_{j} If A=Aija?i?b?j {\_displaystyle \mathbf {A} =A_{ij}{\vec {a}}}_{i}: Bei den orthogonalen Sensoren Q: Definition: Produkt aus Vektoren: Vektor Invariant: #Tensors' skalares Kreuzprodukt: Achsen-Tensor oder Kreuzprodukt-Matrix: Zweitstufentensoren sind auch Bestandteile eines vektoriellen Raums L{\displaystyle {\mathcal {L}}}, wie im Schnitt Tensors als Bestandteile eines Vectorraums.

Deshalb können in der vierten Phase durch den formalen Ersatz der zweiten Phase der vierten Phase Tensoren durch die der vierten Phase und der Vektor mit den Zensoren der zweiten Phase im Abschnitt definiert werden, z.B.: mit den Bestandteilen Apq{\displaystyle A_{pq}, und den Zensoren A1,A2,....,A9?L{\displaystyle \mathbf {A}. Zwei, zwei, drei, drei, drei, drei, vier, vier. und G1, G2,...., G9, ?L

2, \ldots, Mathebf. die eine Grundlage für den L-Display-Stil sind. Defaultbasis in L{Anzeigestil {\mathcal {L}}}: Tensor Transformation: Tensor Produkt: Tensor Produkt: Gemeinsame Notation für Tensor Level 4: Transposition: Spezialtransposition A4?mn{\displaystyle {\stackrel {4}{\mathbf {A} Bei jedem Tensor der zweiten Phase, der wie ein Display aussieht. Alle fünf Sensoren sind symetrisch. Bei jedem zweiten Stadium der Tensorik A, B, Display-Stil.

Ich habe eine Menge zu tun. und im Display-Stil, wie es sich gehört. In der vierten Ebene B {\displaystyle \mathbf {B} in diesen Formel in Tensor durch B? {\displaystyle \mathbf {B} und die Transposition {\displaystyle {\stackrel {23} {\top }}}} von {displaystyle {\stackrel {24}{\top }}}, die Resultate werden mit transponierter G {\displaystyle \mathbf {G}} erzeugt.

With Voltages T{\displaystyle \mathbf {T} und die Stämme, die im E-Display-Stil dargestellt werden. im Hookeschen Gesetz: mit den Lamé-Konstanten ? \displaystyle \lambda und ?{style \mu }. Inversionsformel mit a=2?{\displaystyle a=2\mu }, B=?I{\displaystyle \mathbf {B} =\lambda \mathbf {I} und C = I {\displaystyle \mathbf {C} =\mathbf {I} Vom Sockel E1,....,E6 {\displaystyle \mathbf {E}

1, \ldots, \mathbf des Vektorraumes S=sym(V,V){\displaystyle {\mathcal {S}}}}=\operatorname {sym} (\mathbb {V}, \mathbb {V} )} der zweiten Phase der symm, synthetischen Tensorik kann eine Grundlage des Vektorraumes S4=Lin(S) sein, S) Display-Stil {\ {4} {\mathcal {S}}}}=\mathrm {Lin} ({\mathcal {S}},{\mathcal {S}})} der Linearbilder von symmetrischen Sensoren zu symm. In einer 6×6 Matrix können die 36 Bestandteile der Sensoren von S4 {\displaystackrel {4}{\mathcal {S}}} als Voigt's Schreibweise betrachtet werden.

Mehr zum Thema