#ESPACE PREHILBERTIEN REEL #Produit scalaire #Bilinéarité #Symétrie #Définie positive #Un espace préhilbertien réel de dimension finie est appelé un espace euclidien #Pour prouver la bilinéarité, la linéarité par rapport à une seule variable est suffisante si l'on a démontré la symétrie avant (il suffit de renverser le produit après la 1ère linéarité détectée pour s'en apercevoir)
#Produits scalaire canonique #Norme et distance associées à un produit scalaire #Espace préhilbertien réel
#Espace préhilbertien complexe #L'objet central d'un espace préhilbertien est ce qu'on appelle en général un produit scalaire. Il peut s'agir d'un produit scalaire euclidien lorsque l'on considère des espaces vectoriels sur le corps des nombres réels ou d'un produit scalaire hermitien dans le cas d'espaces vectoriels sur le corps des nombres complexes
#Produit hermitien #Produit scalaire hermitien #Définie positive #Sesquilinéaire #Hermitienne #Une forme sesquilinéaire sur un espace vectoriel complexe E est une application de E × E dans ℂ, linéaire selon l'une des variables et semi-linéaire par rapport à l'autre variable #Espace préhilbertien complexe
#On appelle points fixes ou points invariants les points qui respectent f(Ω)=Ω (on s'en peut s'en servir par exemple pour trouver l'affixe du centre) #C'est bien sûr valable dans ℝ aussi
Isométrie vectorielle #Les valeurs propres éventuelles d'une isométrie vectorielle u sont 1 et -1 #Valable donc pour les matrices orthogonales #Mt=M^(-1) #La matrice est orthogonale si et seulement
#Cours sur les isométries vectorielles #Essentiel
#Excellent document #Similtudes #Cours
#Matrices symétriques #Diagonalisation de matrices symétriques réelles #Donc la matrice de passage est composée des vecteurs de la B.O.N simplement etc
#Excellent document à consulter sur le sujet #Diagonalisation de matrices symétriques réelles
#Matrice orthogonale #Mt=M^(-1) #La matrice est orthogonale si et seulement si (e1,e2,e3...en) forment une base orthonormale #Le déterminant d'une matrice orthogonale est de carré 1, c'est-à-dire qu'il est égal à +1 ou –1 (la réciproque est trivialement fausse). Une matrice orthogonale est dite directe si son déterminant vaut +1 et indirecte s'il vaut –1
Isométrie vectorielle #Les valeurs propres éventuelles d'une isométrie vectorielle u sont 1 et -1 #Valable donc pour les matrices orthogonales #Mt=M^(-1) #La matrice est orthogonale si et seulement
#A consulter #Essentiel
#Trouver une base orthogonale #Exemple #La base orthogonale n'a pas besoin nécessairement d'avoir les mêmes dimensions que la base d'origine
#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #L'axe est invariant (le vecteur u reste fixe malgré la matrice R)
#Exercice excellent #Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #Source Méthode Maths
#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation
#Cas où on connaît la matrice de rotation #Trouver l'axe et l'angle à partir de la matrice de rotation #Trouver le déterminant de la base #On aura bien sûr trouvé l'axe grâce au système linéaire Au=u
#Cas où l'on cherche la matrice de rotation (on connaît l'axe et l'angle) #Sens anti-horaire #Etape 2 #Après il suffit simplement de placer les 3 vecteurs dans la matrice M', la matrice de passage P étant les 3 vecteurs de la base orthonormée (e1,e2,e3) #Matrice de passage orthogonale
#Exercice excellent #Cas où l'on cherche la matrice de rotation (on connaît l'axe et l'angle) #Source : Méthode Maths
#Symétrie (dans un espace vectoriel) #C'est la symétrie par rapport à ker (s-IdE) parallèlement à ker(s+IdE)
#Une involution est une application bijective qui est sa propre réciproque, c'est-à-dire par laquelle chaque élément est l'image de son image #La symétrie vectorielle est une application linéaire involutive : elle vérifie s²=id
#Symétrie (dans un espace vectoriel) #Les valeurs propres possibles d'une symétrie sont -1 et 1 (il est donc aisé dans une matrice 2x2 de deviner la trace (somme des valeurs propres) qui vaut 0 et le déterminant (produit des valeurs propres) qui vaut -1) #s(x)=λ(x) donne s²(x)=λ²(x)=id donc λ={-1,1}
#Excellent document
#Projecteur #C'est une application linéaire idempotente : elle vérifie p² = p #L'idempotence signifie qu'une opération a le même effet qu'on l'applique une ou plusieurs fois #L'application p est un endomorphisme, idempotent (p ∘ p = p), d'image im(p) = F et de noyau ker(p) = G. Cet endomorphisme est diagonalisable
#Il donc très évident de déduire dans une matrice 2x2 que la trace (somme des valeurs propres) est 1 et que le déterminant (produit des valeurs propres) est 0 pour ainsi prouver la projection #Un tel raisonnement est limpide également pour trouver les valeurs propres d'une symétrie
#Projection orthogonale #Une projection pour laquelle les deux supplémentaires sont orthogonaux est appelée projection orthogonale #Symétrie orthogonale #Expression d'un projeté orthogonal dans une base orthonormale #Quand on a trouvé la matrice, on peut vérifier A²=A pour valider
#Prouver une matrice de projection orthogonale #ker(p) pourra servir de vecteur normal pour déterminer l'équation du plan de F par exemple
#Exercice excellent #Trouver la matrice de projection orthogonale sur ce plan #Source : Méthode Maths
#Exercice excellent #Source : Méthode Maths
#Exercice excellent #Source : Méthode Maths
#Excellent exercice #Source : Algèbre Prépa (Omar Jedidi)
#Excellent exercice #Base orthonormale #Base orthogonale #Projection orthogonale #Symétrie orthogonale #Source : Maths avec Ammar
#Exercice #Source : Méthode Maths #Méthode : sachant A=LU , AX=B donne LUX=B , calculer LY=B (la descente) puis UX=Y (la montée) (enfin déduire X)
#Produit de matrices #Appliquer f∘g (par exemple), c'est simplement multiplier les 2 matrices correspondantes dans le même ordre
#Excellent exercice #Prouver <A,B>=Tr(tAB) #Bilinéarité #Symétrie #Définie #Positive #Linéarité des traces et des matrices transposées