Introduction to Pattern Recognition for Human ICT Review of Linear Algebra 2014. 9. 12 Hyunki Hong Contents • Vector and matrix notation • Vectors • Matrices • Vector spaces • Linear transformations • Eigenvalues and eigenvectors Vector and matrix notation • A ๐-dimensional (column) vector ๐ฅ and its transpose are written as: • An ๐×๐ (rectangular) matrix and its transpose are written as • The product of two matrices is cf. The matrix product is associative. If three matrices A, B, and C are respectively m×p, p×q, and q×r matrices, then there are two ways of grouping them without changing their order, and ABC = A(BC) = (AB)C is an m × r matrix. Vectors also known as • The inner product (a.k.a. dot product or scalar product) of two vectors is defined by: • The magnitude of a vector is • The orthogonal projection of vector ๐ฆ onto vector ๐ฅ is <๐ฆT, ๐ข๐ฅ> ๐ข๐ฅ. where vector ๐ข๐ฅ has unit magnitude and the same direction as ๐ฅ • The angle between vectors ๐ฅ and ๐ฆ is • Two vectors ๐ฅ and ๐ฆ are said to be 1. orthogonal if ๐ฅ๐๐ฆ = 0 ๐ 2. orthonormal ๏ฆ cos ๏ฑ -ifsin๐ฅ ๏ฑ๐ฆ๏ถ = 0 and |๐ฅ| = |๐ฆ| = 1 ๏ง ๏ท ex) ๏ง sin ๏ฑ cos ๏ฑ ๏ท ๏จ ๏ธ Vectors • A set of vectors ๐ฅ1, ๐ฅ2, …, ๐ฅ๐ are said to be linearly dependent if there exists a set of coefficients ๐1, ๐2, …, ๐๐ (at least one different than zero) such that ๐ 1 ๐ฅ 1 + ๐ 2 ๐ฅ 2 + … + ๐๐๐ฅ๐ = 0 • Alternatively, a set of vectors ๐ฅ1, ๐ฅ2, …, ๐ฅ๐ are said to be linearly independent if ๐ 1 ๐ฅ 1 + ๐ 2 ๐ฅ 2 + … + ๐๐๐ฅ๐ = 0 ⇒ ๐๐ = 0 ∀๐ Matrices d ๏ฅ • The determinant of a square matrix ๐ด๐×๐ is k ๏ฝ1 th where ๐ด๐๐ is the minor formed by removing the i row and the kth column of ๐ด NOTE) The determinant of a square matrix and its transpose is the same: |๐ด|=|๐ด๐| • The trace of a square matrix ๐ด๐×๐ is the sum of its diagonal d elements. | A|๏ฝ tr ( A ) ๏ฝ ๏ฅa a ik | Aik | (-1) kk k ๏ฝ1 • The rank of a matrix is the number of linearly independent rows (or columns). • A square matrix is said to be non-singular if and only if its rank equals the number of rows (or columns). 1. A non-singular matrix has a non-zero determinant. k ๏ซi Matrices • A square matrix is said to be orthonormal if ๐ด๐ด๐ = ๐ด๐๐ด = ๐ผ • For a square matrix ๐ด 1. if ๐ฅ๐๐ด๐ฅ > 0 ∀๐ฅ≠0, then ๐ด is said to be positive-definite (i.e., the covariance matrix) 2. ๐ฅ๐๐ด๐ฅ ≥ 0 ∀๐ฅ≠0, then ๐ด is said to be positive-semi-definite • The inverse of a square matrix ๐ด is denoted by ๐ด−1 and is such that ๐ด๐ด−1 = ๐ด −1 ๐ด = ๐ผ 1. The inverse ๐ด−1 of a matrix ๐ด exists if and only if ๐ด is non-singular. • The pseudo-inverse matrix ๐ด† is typically used whenever ๐ด−1 does not exist (because ๐ด is not square or ๐ด is singular). 1. One-sided inverse (left inverse or right inverse) If the matrix ๐ด has dimensions and is full rank then use the left inverse if and the right inverse if cf. Formally, given a matrix satisfies the condition and a matrix , is a generalized inverse of if it Vector spaces • The n-dimensional space in which all the n-dimensional vectors reside is called a vector space. • A set of vectors {๐ข1, ๐ข2, …, ๐ข๐} is said to form a basis for a vector space if any arbitrary vector ๐ฅ can be represented by a linear combination of the {๐ข๐} ๐ฅ = ๐1๐ข 1 + ๐2๐ข 2 + โฏ + ๐๐๐ข๐ 1. The coefficients {๐1, ๐2, …, ๐๐} are called the components of vector ๐ฅ with respect to the basis {๐ข๐}. 2. In order to form a basis, it is necessary and sufficient that the {๐ข๐} vectors be linearly independent. • A basis {๐ข๐} is said to be • A basis {๐ข๐} is said to be ๏ฌ๏น 0 i ๏ฝ j T u u orthogonal if i j ๏ญ ๏ฎ๏ฝ 0 i ๏น j ๏ฌ๏ฝ1 i ๏ฝ j T orthonormal if u i u j ๏ญ ๏ฝ 0 i ๏น j ๏ฎ 1. As an example, the Cartesian coordinate base is an orthonormal base. Vector spaces • Given n linearly independent vectors {๐ฅ1, ๐ฅ2, …, ๐ฅ๐}, we can construct an orthonormal base {๐ 1, ๐ 2, …, ๐๐} for the vector space spanned by {๐ฅ๐} with the Gram-Schmidt orthonormalization procedure. • The distance between two points in a vector space is defined as the magnitude of the vector difference between the points 1 2 ๏ฉ 2๏น d E ( x, y ) ๏ฝ | x - y | ๏ฝ ๏ช๏ฅ ( xk - yk ) ๏บ ๏ซ k ๏ฝ1 ๏ป d This is also called the Euclidean distance. Linear transformations • A linear transformation is a mapping from a vector space ๐๐ onto a vector space ๐๐, and is represented by a matrix. 1. Given vector ๐ฅ ๐ ๐๐, the corresponding vector y on ๐๐ is computed as 2. Notice that the dimensionality of the two spaces does not need to be the same. 3. For pattern recognition we typically have ๐<๐ (project onto a lower-dimensional space). Linear transformations • A linear transformation represented by a square matrix ๐ด is said to be orthonormal when ๐ด๐ด๐=๐ด๐๐ด=๐ผ 1. This implies that ๐ด๐=๐ด−1 2. An orthonormal x form has the property of preserving the magnitude of the vectors | y|๏ฝ y y ๏ฝ T ( Ax ) Ax ๏ฝ T x A Ax ๏ฝ T T x x ๏ฝ|x| T 3. An orthonormal matrix can be thought of as a rotation of the reference frame. ex) ๏ฆ cos ๏ฑ - sin ๏ฑ ๏ถ ๏ง๏ง ๏จ sin ๏ฑ ๏ท๏ท cos ๏ฑ ๏ธ ์ ํ๋ณํ ์ถ๊ฐ์๋ฃ ์ฐธ์กฐ The rotation takes the vector (1,0) to (cosθ, sinθ) and the vector (0, 1) to (cosθ, -sinθ) . This is just what we need, since in a matrix the first column is just the output when you put in a unit vector along the x-axis; the second column is the output for a unit vector along the y-axis, and so on. So the 2D rotation matrix is.. (cf. ์๊ณ๋ฐฉํฅ์ด๋ฉด,..) Eigenvectors and eigenvalues • Given a matrix ๐ด๐×๐, we say that ๐ฃ is an eigenvector* if there exists a scalar ๐ (the eigenvalue) such that ๐ด๐ฃ = ๐๐ฃ • Computing the eigenvalues * The "eigen-" in "eigenvector" translates as "characteristic“. • The matrix formed by the column eigenvectors is called the modal matrix M 1. Matrix Λ is the canonical form of A: a diagonal matrix with eigenvalues on the main diagonal • Properties 1. If Λ is non-singular, all eigenvalues are non-zero. 2. If Λ is real and symmetric, all eigenvalues are real. The eigenvectors associated with distinct eigenvalues are orthogonal. 3. If Λ is positive definite, all eigenvalues are positive • If we view matrix ๐ด as a linear transformation, an eigenvector represents an invariant direction in vector space. 1. When transformed by ๐ด, any point lying on the direction defined by ๐ฃ will remain on that direction, and its magnitude will be multiplied by ๐. 2. For example, the transform that rotates 3-d vectors about the ๐ axis has vector [0 0 1] as its only eigenvector and ๐ = 1 as its eigenvalue. ๏ฉ cos ๏ข ๏ช A ๏ฝ sin ๏ข ๏ช ๏ช๏ซ 0 ๏ญ sin ๏ข cos ๏ข 0 0๏น ๏บ 0 ๏บ 1 ๏บ๏ป • Given the covariance matrix Σ of a Gaussian distribution 1. The eigenvectors of Σ are the principal directions of the distribution. 2. The eigenvalues are the variances of the corresponding principal directions • The linear transformation defined by the eigenvectors of Σ leads to vectors that are uncorrelated regardless of the form of the distribution. 1. If the distribution happens to be Gaussian, then the transformed vectors will be statistically independent. 01_๋ฒกํฐ ์ด๋ก ๏ถ ๋ฒกํฐ์ ํํ ๏ง ๋ฒกํฐ : ํฌ๊ธฐ์ ๋ฐฉํฅ์ ๊ฐ์ง๋ ์์์ ๋ฌผ๋ฆฌ๋ ๏ง ํจํด ์ธ์์์๋ ์ธ์ ๋์์ด ๋๋ ๊ฐ์ฒด๊ฐ ํน์ง์ผ๋ก ํํ๋๊ณ , ํน์ง์ ์ฐจ์์ ๊ฐ์ง ๋ฒกํฐ๋ก ํํ๋๋ค. ์ด๋ฌํ ๋ฒกํฐ๋ฅผ ํน์ง ๋ฒกํฐ(feature vector)๋ผ๊ณ ํ๋ค. ๏ง ํน์ง ๋ฒกํฐ์ ๋ํ ๋์ํ์ ๊ณ์ฐ์ ์ํด์ ํน์ง ๋ฒกํฐ๋ฅผ ํ๋ ฌ๋ก ํํํ์ฌ d์ฐจ์ ๊ณต๊ฐ์์ ํ ์ ์ ๋ฐ์ดํฐ๋ก ํน์ง์ ๋ค๋ฃจ๊ฒ ๋๋ค. 16 01_๋ฒกํฐ ์ด๋ก ๏ถ ๋ฒกํฐ์ ์ ์น (transpose) ๏ง N×1ํ๋ ฌ์ 1×Nํ๋ ฌ๋ก, ํน์ 1×N ํ๋ ฌ์ N×1ํ๋ ฌ๋ก ํ๊ณผ ์ด์ ๋ฐ๊พผ ํ๋ ฌ ๏ถ ๋ฒกํฐ์ ํฌ๊ธฐ ๏ง ์์ ์์ ๋ฒกํฐ ๊ณต๊ฐ์์ ํ ์ ๊น์ง์ ๊ฑฐ๋ฆฌ ๏ถ ๋จ์ ๋ฒกํฐ ๏ง ๋ฒกํฐ์ ํฌ๊ธฐ๊ฐ 1์ธ ๋ฒกํฐ. ๏ง ๋ง์ฝ, ๋ฒกํฐ v๊ฐ 0์ด ์๋ ๋ฒกํฐ๋ผ๋ฉด v๋ฐฉํฅ์ ๋จ์๋ฒกํฐ u ๏ง ๋ฒกํฐ v๋ฐฉํฅ์ ๋จ์ ๋ฒกํฐ๊ณ์ฐ: ์ ๊ทํ 17 01_๋ฒกํฐ ์ด๋ก ๏ถ ๋ฒกํฐ์ ๊ณฑ์ ๋ด์ , ์ธ์ ๏ง ์ค์นผ๋ผ๊ณฑ ๏ง ์์์ ๋ฒกํฐ์ ์์์ ์ค์นผ๋ผ(์ค์)๋ฅผ ๊ณฑํ๊ธฐ ๏ง ๋ด์ (dot product) ๏ง ์ฐจ์์ด ๋์ผํ ๋ ๊ฐ์ ๋ฒกํฐ A,B์ ๋ํ์ฌ ๋์๋๋ ์ฑ๋ถ ๋ณ๋ก ๊ณฑํ์ฌ ํฉํ๋ ๊ฒ์ ๋ ๋ฒกํฐ์ '๋ด์ '์ด๋ผ๊ณ ํจ ๏ง ๋ฒกํฐ์ ๋ด์ ์ ๊ฒฐ๊ณผ๋ ์ค์ ์ค์นผ๋ผ = BTA ๏ง ๋ ๋ฒกํฐ ์ฌ์ด์ ๊ฐ θ๊ฐ ์ฃผ์ด์ง ๊ฒฝ์ฐ, ๋ด์ ์ค์นผ๋ผ C 18 01_๋ฒกํฐ ์ด๋ก ๏ง ์ธ์ ๏ง A,B∈R3 (A,B๊ฐ 3์ฐจ์ ๋ฒกํฐ ๊ณต๊ฐ์์ ์ํ๋ค)์ธ ๋ฒกํฐ A,B๊ฐ ๋ค์๊ณผ ๊ฐ์ ๏ง ๋ฒกํฐ ์ธ์ ์ ํฌ๊ธฐ๋ A์ B๋ฅผ ์ด์ํ๋ ๋ ๋ณ์ผ๋ก ํ๋ ํํ ์ฌ๋ณํ์ ๋ฉด์ ๊ณผ ๊ฐ์ ๏ง ์ธ์ ์ ๊ฒฐ๊ณผ๋ A์ B์ ๋์์ ์์ง์ด๋ฉฐ, ์ค๋ฅธ์์ ์์ง์ ์ธ์ง์ ์ค์ง๋ฅผ ์๋ก ์์ง์ด ๋๊ฒ ํด์ ์ธ์ง๋ฅผ A๋ฐฉํฅ, ์ค์ง๋ฅผ B๋ฐฉํฅ์ผ๋ก ํ ๋ ์์ง์ ๋ฐฉํฅ์ ๊ฐ๋ฅด์น๋ ๋ฒกํฐ๊ฐ ๋จ. 19 01_๋ฒกํฐ ์ด๋ก ๏ง ๋จ์๋ฒกํฐ์ ๋ด์ ๋ฐ ์ธ์ z k j y i x 20 01_๋ฒกํฐ ์ด๋ก ๏ถ ์์ง ์ฌ์ (vector projection) ๏ง ๋ฒกํฐ x ์ ๋ํ ๋ฒกํฐ y์ ๋ฐฉํฅ ์ฑ๋ถ ๏ง y ๋ฒกํฐ๋ฅผ x ๋ฒกํฐ๋ก ์ฌ์ ๏ ๋ฒกํฐ x์ ๋ฐฉํฅ์ผ๋ก์ ๋ฐฉํฅ์ฑ๋ถ ๊ณ์ฐ ๏ง ์ฌ์ ๋ฒกํฐ๋ ๋ด์ ์ ์ ์๋ฅผ ์ฌ์ฉํ์ฌ ๋ค์๊ณผ ๊ฐ์ด ์ ์ ๏ux ์ x์ ๊ฐ์ ๋ฐฉํฅ์ ๋จ์ ํฌ๊ธฐ๋ฅผ ๊ฐ์ง๋ ๋จ์ ๋ฒกํฐ โ ๋ฒกํฐ์ ๋ด์ ๏ง ๋ ๋ฒกํฐ x์ y๊ฐ ๋ง์ฝ, xTy = 0 ์ด๋ฉด ๏ ๋ ๋ฒกํฐ x์ y๋ ์์ง(orthogonal) ๏ง xTy = 0 ์ด๊ณ |x |= |y |= 1 ์ด๋ฉด, ๋ ๋ฒกํฐ x์ y๋ ์ ๊ท ์ง๊ต(orthonormal) ๏ Ex: ๊ฐ ์ขํ์ถ ๋ฐฉํฅ์ผ๋ก์ ๋ฐฉํฅ๋ฒกํฐ 21 01_๋ฒกํฐ ์ด๋ก ๏ถ ์ ํ ๊ฒฐํฉ ๏ง ๋ฒกํฐ ์งํฉ {x1,x2,…,xm} ๊ณผ ์ค์นผ๋ผ ๊ณ์ ์งํฉ {α 1, α2,…, α m} ๊ณผ์ ๊ณฑ์ ํฉ์ผ๋ก ํํ๋ ๊ฒฐ๊ณผ๋ฅผ ๋ฒกํฐ x์ ‘์ ํ ๊ฒฐํฉ(linear combination)’ ํน์ ‘1์ฐจ ๊ฒฐํฉ’ ์ด๋ผ๊ณ ํจ ๏ถ ์ ํ ์ข ์๊ณผ ์ ํ ๋ ๋ฆฝ ๏ง ์ ํ ์ข ์ (linearly dependent) ๏ง ์์์ ๋ฒกํฐ ์งํฉ์ ๋ค๋ฅธ ๋ฒกํฐ๋ค์ ์ ํ ๊ฒฐํฉ์ผ๋ก ํํํ ์ ์๋ค๋ฉด, ์ด ๋ฒกํฐ ์งํฉ์ '์ ํ ์ข ์(linearly dependent)'์ด๋ผ๊ณ ํจ ๏ง <{a1, a2, …, am}, {x1,x2,…,xm}> = 0 ๏ง ์ ํ ๋ ๋ฆฝ (linearly independent) ๏ง ๋ง์ฝ, ์๋ ์์ ๋ง์กฑํ๋ ์ ์ผํ ํด๊ฐ ๋ชจ๋ i์ ๋ํ์ฌ αk = 0, {x1, x2, …, xm} ๋ '์ ํ ๋ ๋ฆฝ(linearly independent)'์ด๋ผ๊ณ ํจ 22 01_๋ฒกํฐ ์ด๋ก ๏ถ ๊ธฐ์ ์งํฉ ๏ง N ์ฐจ์์ ๋ชจ๋ ๋ฒกํฐ๋ฅผ ํํํ ์ ์๋ ๊ธฐ๋ณธ ๋ฒกํฐ์ ์งํฉ ๏ง ์์์ ๋ฒกํฐ๋ ๊ธฐ์ ๋ฒกํฐ ์งํฉ์ ํตํ์ฌ N×1 ๋ฒกํฐ ๊ณต๊ฐ์ ํผ์ณ์ง๋ค๊ณ ํํ (span) ๏ง ๋ง์ฝ, {vi}1≤i≤N ์ด ๊ธฐ์ ๋ฒกํฐ ์งํฉ์ด๋ผ๋ฉด, ์์์ N×1 ๋ฒกํฐ x๋ ๋ค์๊ณผ ๊ฐ์ด ํํํจ ๏ง ์์์ ๋ฒกํฐ x๊ฐ {ui} ์ ์ ํ ์กฐํฉ์ผ๋ก ํํ๋๋ค๋ฉด ๋ฒกํฐ ์งํฉ {u1, u2, …, un}์ N ์ฐจ์ ๊ณต๊ฐ์ ๊ธฐ์ (basis) ๋ผ๊ณ ํจ. ๏ง ๋ฒกํฐ์งํฉ {ui}์ด ๊ธฐ์ ๋ฒกํฐ๊ฐ ๋๊ธฐ ์ํด์๋ ์๋ก ์ ํ ๋ ๋ฆฝ์ด์ด์ผ ํจ. ๏๋ค์ ์กฐ๊ฑด์ ๋ง์กฑํ๋ฉด ๊ธฐ์ {ui}๋ ์ง๊ต ๏๋ค์ ์กฐ๊ฑด์ ๋ง์กฑํ๋ฉด ๊ธฐ์ {ui}๋ ์ ๊ท์ง๊ต » ์ง๊ฐ์ขํ๊ณ์ ๋จ์๋ฒกํฐ 23 01_๋ฒกํฐ ์ด๋ก 24 01_๋ฒกํฐ ์ด๋ก ๏ถ ๊ทธ๋จ-์๋ฏธํธ ์ ๊ท ์ง๊ตํ (Gram-schmidt Orthonormalization) ๏ง ์๋ก ์ ํ ๋ ๋ฆฝ์ธ n๊ฐ์ ๊ธฐ์ ๋ฒกํฐ {x1, x2, …, xm} ๊ฐ ์ฃผ์ด์ก์ ๋, ์ ๊ท์ง๊ต(orthonormal) ๊ธฐ์ ๋ฒกํฐ ์งํฉ {p1, p2, …, pn} ์ ๊ณ์ฐํ๋ ๊ณผ์ ๏ ๊ธฐ์ ๏ ์ง๊ต๊ธฐ์ ๋ก ๋ณํํ๋ ๊ณผ์ ๏ง {v1, …, vn} ์ ๋ฒกํฐ๊ณต๊ฐ V์ ๊ธฐ์ (basis)๋ผ๊ณ ํ๋ฉด, ์ง๊ต ๋ฒกํฐ ์งํฉ {u1, …, un}์ ๋ค์ ๊ด๊ณ๋ก๋ถํฐ ๊ณ์ฐ ๊ฐ๋ฅ ๏ V์ ๋ํ ์ ๊ท์ง๊ต๊ธฐ์ (orthonormal basis)๋ ๊ฐ๊ฐ์ ๋ฒกํฐ u1, …, un ์ ์ ๊ทํํ๋ฉด ๋จ. ์ ๊ท ์ง๊ต ๋ฒกํฐ 25 01_๋ฒกํฐ ์ด๋ก ๏ถ ๊ทธ๋จ-์๋ฏธํธ ์ ๊ท ์ง๊ตํ (Gram-schmidt Orthonormalization) ๏ง Example: 26 01_๋ฒกํฐ ์ด๋ก ๏ง ์ ํด๋ฆฌ๋์ ๊ฑฐ๋ฆฌ ๏ ๋ฒกํฐ ๊ณต๊ฐ์์์ ๋ ์ ๊ฐ์ ๊ฑฐ๋ฆฌ๋ ์ ์ฌ์ด ๋ฒกํฐ ์ฐจ์ ํฌ๊ธฐ๋ก ์ ์ 27 01_๋ฒกํฐ ์ด๋ก ๏ถ ๋ฒกํฐ ๊ณต๊ฐ, ์ ํด๋ฆฌ๋ ๊ณต๊ฐ,ํจ์ ๊ณต๊ฐ, ๋ ๊ณต๊ฐ (null space) ๏ง ๋ชจ๋ n์ฐจ์ ๋ฒกํฐ๋ค์ด ์กด์ฌํ๋ n์ฐจ์ ๊ณต๊ฐ ๏ง ์ค์ , ๋ฒกํฐ ๊ณต๊ฐ์ ์ค์์ ์ํ์ฌ ๋ฒกํฐ ๋ง์ ๊ณผ ๊ณฑ์ ์ ๋ํ ๊ท์น์ ๋ซํ์๋ ๋ฒกํฐ ์งํฉ ๏ง ๊ทธ๋ฌ๋ฏ๋ก ์์์ ๋ ๋ฒกํฐ์ ๋ํ ๋ง์ ๊ณผ ๊ณฑ์ ์ ํตํ์ฌ ํด๋น ๋ฒกํฐ ๊ณต๊ฐ ๋ด์ ์๋ ์๋ก์ด ๋ฒกํฐ๋ฅผ ์์ฑํ ์ ์์ ๏ง ์ฆ, n์ฐจ์ ๊ณต๊ฐ Rn ์ ๋ชจ๋ ์ ํ๋ ๋ฆฝ์ธ n๊ฐ์ n์ฐจ์ ๋ฒกํฐ์ ์ํด ์์ฑ๋ ์ ์์ ๏ง ์ด ๋ n์ฐจ์ ๊ณต๊ฐ Rn ์ '์ ํด๋ฆฌ๋ n์ฐจ์ ๊ณต๊ฐ' ํน์ '์ ํด๋ฆฌ๋ ๊ณต๊ฐ'์ด๋ผ๊ณ ํจ ๏ง ๋ฒกํฐ์ ์ฐจ์์ด ๋ฌดํ๋์ผ ๊ฒฝ์ฐ, ๋ฒกํฐ ๊ณต๊ฐ์ ‘ํจ์ ๊ณต๊ฐ’์ด ๋จ ๏ง ํ๋ ฌ A์ ๋ ๊ณต๊ฐ์ Ax = 0๋ฅผ ๋ง์กฑํ๋ ๋ชจ๋ ๋ฒกํฐ x๋ก ์ด๋ฃจ์ด์ ธ ์๋ ๊ณต๊ฐ์ ๋ปํ๋ค. 28 02_ํ๋ ฌ ๋์ ๏ถ ์ ์นํ๋ ฌ (transpose) ๏ถ ์ ๋ฐฉํ๋ ฌ (square matrix) ๏ง ํ์ ์์ ์ด์ ์๊ฐ ๋์ผํ ํ๋ ฌ 29 02_ํ๋ ฌ ๋์ ๏ถ ๋๊ฐ ํ๋ ฌ (diagonal matrix) ๏ง ํ๋ ฌ์ ๋๊ฐ ์ฑ๋ถ์ ์ ์ธํ๊ณ ๋ ๋ชจ๋ 0์ธ ํ๋ ฌ ๏ง ์ค์นผ๋ผ ํ๋ ฌ : ๋๊ฐ ์ฑ๋ถ์ด ๋ชจ๋ ๊ฐ๊ณ , ๋น๋๊ฐ ์ฑ๋ถ์ด ๋ชจ๋ 0์ธ ์ ๋ฐฉํ๋ ฌ ๏ถ ํญ๋ฑ ํ๋ ฌ ํน์ ๋จ์ ํ๋ ฌ (identity matrix) ๏ง ๋๊ฐ ์ฑ๋ถ์ด ๋ชจ๋ 1์ด๊ณ ๊ทธ๋ฐ์ ์ฑ๋ถ์ด ๋ชจ๋ 0์ธ ์ ๋ฐฉํ๋ ฌ 30 02_ํ๋ ฌ ๋์ ๏ถ ๋์นญ ํ๋ ฌ (symmetric matrix) ๋์นญํ๋ ฌ ์: ๊ณต๋ถ์ฐํ๋ ฌ ๏ง ๋๊ฐ์ ์ ์ถ์ผ๋ก ๋ชจ๋ ์ฑ๋ถ์ด ๋์นญ๋๋ ํ๋ ฌ ๏ถ ์ ํ๋ ฌ ๏ง ๋ชจ๋ ๊ตฌ์ฑ ์ฑ๋ถ์ด 0์ธ ํ๋ ฌ ๏ถ ์ง๊ต ํ๋ ฌ (orthogonal matrix) ๏ง ์ฃผ์ด์ง ํ๋ ฌ A๊ฐ ์ ๋ฐฉํ๋ ฌ์ผ ๋, ๏ง ํ๋ ฌ์ ๊ฐ ์ด(column)์ด ์๋ก ์ง๊ต ๏ง ํ์ ๋ณํ๊ณผ ๊ด๊ณ ์๋ ๊ฒฝ์ฐ๊ฐ ๋ง์. ๋ฅผ ๋ง์กฑํ๋ ํ๋ ฌ For an orthogonal matrix, U U ๏ฝI T Det = 1: rotational transformation Det = -1: reflective transformation, or axis permutation. ์ ๋ฐฉํ๋ ฌ A์ ๊ฐ ํ๋ฒกํฐ(๋๋ ์ด๋ฒกํฐ)๋ค์ด ์ํธ์ง๊ต์ธ ๋จ์๋ฒกํฐ(orthonormal vector)๋ก ์ด๋ฃจ์ด์ง. 31 02_ํ๋ ฌ ๋์ ๏ถ ํ๋ ฌ์ ๊ณฑ์ ๏ถ ํ๋ ฌ์ ํธ๋ ์ด์ค(trace) – ์ ๋ฐฉํ๋ ฌ์์ ๋๊ฐ ์ฑ๋ถ์ ํฉ ๏ ํ๋ ฌ์ ๊ณ ์ ๊ฐ ๋ฌธ์ ์์ ๊ณ ์ ๊ทผ์ ๊ตฌํ ๋ ๋งค์ฐ ์ค์ํ ์ญํ ์ ํจ 32 02_ํ๋ ฌ ๋์ ๏ถ ํ๋ ฌ์ ๊ณ์(rank) ๏ง ํ๋ ฌ์์ ์ ํ ๋ ๋ฆฝ์ธ ์ด๋ฒกํฐ(ํน์ ํ๋ฒกํฐ)์ ๊ฐ์ ๏ง ๋ค์๊ณผ ๊ฐ์ ์ ๋ฐฉํ๋ ฌ A๊ฐ ์ฃผ์ด์ง ๊ฒฝ์ฐ, ๏ง ํ๋ ฌ A ๋ ์ธ ๊ฐ์ ์ด๋ฒกํฐ e1, e2, e3 ๋ฅผ ์ฌ์ฉํ์ฌ A = (e1, e2, e3) ๋ก ํํํ ์ ์์ ๏ง ํ๋ ฌ A ์ ๊ณ์๋ ์ ์์ ์ํด ์ด๋ค ์ด๋ฒกํฐ ์ค์์ ์ ํ ๋ ๋ฆฝ์ธ ๋ฒกํฐ์ ๊ฐ์๋ฅผ ๋งํจ ๏ A ํ๋ ฌ์ ์ธ ๋ฒกํฐ๊ฐ ๋ชจ๋ ๋จ์ ๋ฒกํฐ์ด๊ณ ๋ชจ๋ ์ ํ ๋ ๋ฆฝ์ด๋ฏ๋ก rank(A) = 3 ๏ง ํ๋ ฌ์ ๊ณ์๋ ์ฃผ์ด์ง ํ๋ ฌ์ ํ์ ์๋ ์ด์ ์๋ณด๋ค ํด ์ ์์ ๏ rank(An × n) = n ๏จ ํ๋ ฌ A๋ ๋นํน์ด(nonsingular)ํ๋ ฌ ํน์ ์ ์นํ๋ ฌ ๏ rank(An × n) < n ๏จ ํ๋ ฌ A๋ ํน์ด(singular)ํ๋ ฌ » ์ญํ๋ ฌ์ด ์กด์ฌํ์ง ์์. (not invertible, rank deficient, degenerate, etc…) 33 02_ํ๋ ฌ ๋์ ๏ถ ํ๋ ฌ์ (determinant) ๋๋ ํ๋ ฌ๊ฐ ๏ง ํ๋ ฌ์์ ํ๋ ฌ์ ์ด๋ ํ ํ๋์ ์ค์ ๊ฐ์ผ๋ก ํํํ ๊ฒ์ ๋งํจ ๏ง d×d ์ ๋ฐฉ ํ๋ ฌ A์ ๋ํด ํ๋ ฌ์์ |A| ํน์ det A ์ผ๋ก ํํํ๋ฉฐ ๋ค์๊ณผ ๊ฐ์ ์ฑ์ง์ ๊ฐ์ง ๏ ํ๋ ฌ์์ ์ค์ง ์ ๋ฐฉ ํ๋ ฌ์์๋ง ์ ์๋๋ค. ๏ ๊ตฌ์ฑ ์ฑ๋ถ์ด ํ๋์ธ ํ๋ ฌ์ ํ๋ ฌ์์ ๊ทธ ์ฑ๋ถ ์์ฒด์ด๋ค. ๏ ํ๋ ฌ์์ ๊ฐ์ ํ๋์ ์์ ์ฆ, ์์์ ์ค์์ด๋ค. ๏ n์ฐจ์ ํ๋ ฌ์ |An×n| ์ n๊ฐ์ ํ๊ณผ ์ด์ ์์น๊ฐ ์๋ก ๋ค๋ฅธ ์ฑ๋ถ๋ค์ ๊ณฑ์ ํฉ์ผ๋ก ํํ๋๋ค. » 2x2 ํ๋ ฌ์ ํ๋ ฌ์ » 3x3 ํ๋ ฌ์ ํ๋ ฌ์ 34 02_ํ๋ ฌ ๋์ ๏ง ์ํ๋ ฌ์ (minor) ๏ง ํ๋ ฌ์์ i๋ฒ์งธ ์ด๊ณผ j๋ฒ์งธ ํ์ ์ ๊ฑฐํจ์ผ๋ก์จ ์ป๋ ํ๋ ฌ ๏ง ํ๋ ฌ์ ๊ณ์ฐ์ ์ผ๋ฐํ ๏ง ์ฌ๊ธฐ์ |Mij| ๋ฅผ i๋ฒ์งธ ์ด๊ณผ j๋ฒ์งธ ํ์ ์ ๊ฑฐํจ์ผ๋ก์จ ์ป์ด์ง๋ ์ํ๋ ฌ์์ด๋ผ๊ณ ํจ ๏ง ์์์ ํ์ด๋ ์ด์ ์ค์ฌ์ผ๋ก ์ ๊ฐํ์ฌ๋ ๊ฒฐ๊ณผ๋ ๊ฐ์ ๏จ ๋ผํ๋ผ์ค(Laplace) ์ ๊ฐ ๏ง ๋ผํ๋ผ์ค ์ ๊ฐ ์ ๋ถํธ ๏ aij ์ ์๋์ฒจ์ ํน์ ์ํ๋ ฌ์ |Mij|์ ์๋์ฒจ์์ ํฉ์ด ์ง์๋ฉด ๏ผ, ํ์๋ฉด ๏ผ๊ฐ ๋จ ๏ง ์ํ๋ ฌ์ |Mij|์ ๋ถํธ ๋ถ๋ถ (-1)i+j ๊น์ง ๊ณฑํ ํญ์ ์ฌ์ธ์ Aij๋ผ๊ณ ํจ 35 02_ํ๋ ฌ ๋์ ๏ง Ai | j ๋ฅผ d x d ํ๋ ฌ์ด๋ผ๊ณ ํ ๋ ์ํ๋ ฌ์์ผ๋ก A์ ํ๋ ฌ์์ ์ํ์ ์ผ๋ก ๊ตฌํ ์ ์์ ๏ i๋ฒ์งธ ํ์ ์ค์ฌ์ผ๋ก ์ ๊ฐ ๏ง ํ๋ ฌ์์ ์ฑ์ง ๏ง ์ผ๊ฐํ๋ ฌ์ ํ๋ ฌ์์ ๊ฐ์ ๋๊ฐ ์ฑ๋ถ์ ๊ณฑ ๏ง ์ ์นํ๋ ฌ์ ํ๋ ฌ์์ ์๋ ํ๋ ฌ์ ํ๋ ฌ์๊ณผ ๊ฐ๋ค. 36 02_ํ๋ ฌ ๋์ ๏ถ ์ญํ๋ ฌ (inverse matrix) ๏ง ๋์ ์ฐ์ฐ์์ ์์์ ์๋ฅผ ๊ณฑํ์ฌ 1์ด ๋ ๋, ์ด๋ฅผ '์ญ์'๋ผ๊ณ ํจ ๏ง ์ญ์๋ฅผ ํ๋ ฌ ๋์์ ์ ์ฉํ์ ๋, AX = I ๊ฐ ๋๋ X๊ฐ ์กด์ฌํ ๊ฒฝ์ฐ์ ์ด ํ๋ ฌ X๋ฅผ A์ ์ญํ๋ ฌ์ด๋ผ๊ณ ํ๋ฉฐ A-1 ๋ก ํํํ๋ค. ๏ถ ์ญํ๋ ฌ์ ์ฑ์ง 37 02_ํ๋ ฌ ๋์ ๏ถ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ (eigenvalues and eigenvectors) ๏ง ํ๋ ฌ A๊ฐ n×n์ ์ ๋ฐฉ ํ๋ ฌ์ด๊ณ , x ≠ 0์ธ ๋ฒกํฐ x ∈ Rn ๊ฐ ์กด์ฌํ ๋ ๏ง ๋ค์ ๊ด๊ณ๋ฅผ ๋ง์กฑํ๋ ์ค์นผ๋ผ λ๋ฅผ ํ๋ ฌ A์ ๊ณ ์ ๊ฐ์ด๋ผ๊ณ ํจ ๏ ๋ฒกํฐ x๋ λ์ ๋์ํ๋ A์ ๊ณ ์ ๋ฒกํฐ๋ผ๊ณ ํจ Ax ๏ฝ ๏ฌ x ๏ง ๊ณ ์ ๊ฐ์ ๊ณ์ฐ A x ๏ฝ ๏ฌ x ๏ A x ๏ญ ๏ฌ x ๏ฝ 0 ๏ ( A ๏ญ ๏ฌ I ) x ๏ฝ 0 ๏ x ๏ฝ 0 or ( A ๏ญ ๏ฌ I ) x ๏ฝ 0 ๏ง ๋์ฐจ์ผ์ฐจ ์ฐ๋ฆฝ๋ฐฉ์ ์ Ax = 0์์ x = 0์ด ์๋ ํด๋ฅผ ์ป๋ ์ ์ผํ ๊ฒฝ์ฐ๋ |A| = 0์ธ ๊ฒฝ์ฐ ๏ง ๋ฐ๋ผ์ ์ ์์ ๋ง์กฑํ๋ ค๋ฉด |A –λI| = 0์ผ ๋ x ≠0 ์ธ ํด๊ฐ ์กด์ฌํ๊ฒ ๋๋ค. ๏ง ์ด๋ |A –λI| = 0์ด๋ผ๋ ์์ A์ 'ํน์ฑ ๋ฐฉ์ ์'์ด๋ผ๊ณ ํจ (A ๏ญ ๏ฌI) ๏ฝ 0 ๏ A ๏ญ ๏ฌI ๏ฝ 0 ๏ ๏ฌ N ๏ซ a1 ๏ฌ N ๏ญ1 ๏ซ ... ๏ซ a N ๏ญ1 ๏ฌ ๏ซ a 0 ๏ฝ 0 ๏ A๋ฅผ n×n ํ๋ ฌ์ด๋ผ ํ๊ณ , λ๋ฅผ A์ ๊ณ ์ ๊ฐ์ด๋ผ๊ณ ํ๋ค. ๏ N ๊ฐ์ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ๋ฅผ ๊ตฌํ ์ ์๋ค. ๏ ๊ณ ์ ๋ฒกํฐ๋ก ์ ์๋๋ ๋ถ๋ถ ๊ณต๊ฐ์ A์ ๊ณ ์ ๊ณต๊ฐ์ด๋ผ๊ณ ํ๋ค. 38 02_ํ๋ ฌ ๋์ ๏ถ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ (eigenvalues and eigenvectors) ๏ง ๊ธฐํํ์ ์๋ฏธ ํ๋ ฌ(์ ํ๋ณํ) A์ ๊ณ ์ ๋ฒกํฐ๋ ์ ํ๋ณํ A์ ์ํด ๋ฐฉํฅ์ ๋ณด์กด๋๊ณ ์ค์ผ ์ผ(scale)๋ง ๋ณํ๋๋ ๋ฐฉํฅ ๋ฒกํฐ๋ฅผ ๋ํ๋ด๊ณ , ๊ณ ์ ๊ฐ์ ๊ทธ ๊ณ ์ ๋ฒกํฐ์ ๋ณํ๋ ๋ ์ค์ผ์ผ ์ ๋๋ฅผ ๋ํ๋ด๋ ๊ฐ. ์) ์ง๊ตฌ์ ์์ ์ด๋๊ณผ ๊ฐ์ด 3์ฐจ์ ํ์ ๋ณํ์ ์๊ฐํ์ ๋, ์ด ํ์ ๋ณํ์ ์ํด ๋ณํ์ง ์๋ ๊ณ ์ ๋ฒกํฐ๋ ํ์ ์ถ ๋ฒกํฐ์ด๊ณ ๊ทธ ๊ณ ์ ๊ฐ์ 1 39 02_ํ๋ ฌ ๋์ ๏ถ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ (eigenvalues and eigenvectors) ๏ง Application example In this shear mapping, the red arrow changes direction but the blue arrow does not. Therefore the blue arrow is an eigenvector, with eigenvalue 1 as its length is unchanged 40 02_ํ๋ ฌ ๋์ ๏ถ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ์ ์ฑ์ง ๏ง ๋๊ฐ ํ๋ ฌ์ ๊ณ ์ ๊ฐ์ ๋๊ฐ ์ฑ๋ถ ๊ฐ์ด๋ค ๏ง ์ผ๊ฐ ํ๋ ฌ์ ๊ณ ์ ๊ฐ์ ์ด ํ๋ ฌ ๋๊ฐ ์ฑ๋ถ ๊ฐ์ด๋ค ๏ง ๋ฒกํฐ x๊ฐ ํ๋ ฌ A์ ๊ณ ์ ๋ฒกํฐ์ด๋ฉด ๋ฒกํฐ x์ ์ค์นผ๋ผ ๊ณฑ์ธ kx๋ ๊ณ ์ ๋ฒกํฐ์ด๋ค ๏ง ์ ์นํ์ฌ๋ ๊ณ ์ ๊ฐ์ ๋ณํ์ง ์๋๋ค. ๏ ํ๋ ฌ A์ ๊ณ ์ ๊ฐ๊ณผ ์ ์น ํ๋ ฌ AT ์ ๊ณ ์ ๊ฐ์ ๋์ผํ๋ค ๏ง ์ญํ๋ ฌ์ ๊ณ ์ ๊ฐ์ ์๋ ํ๋ ฌ์ ๊ณ ์ ๊ฐ์ ์ญ์๊ฐ ๋๋ค. ๏ง ํ๋ ฌ A์ ๋ชจ๋ ๊ณ ์ ๊ฐ์ ๊ณฑ์ A์ ํ๋ ฌ์๊ณผ ๊ฐ๋ค ๏ง ์๋ก ๋ค๋ฅธ ๊ณ ์ ๊ฐ๊ณผ ๊ด๋ จ๋ ๊ณ ์ ๋ฒกํฐ๋ ์ ํ ๋ ๋ฆฝ์ด๋ค. ๏ง ์ค์ ๋์นญํ๋ ฌ์ ๊ณ ์ ๋ฒกํฐ๋ ์๋ก ์ง๊ตํ๋ค. ๏ง ์ค์ ๋์นญ ํ๋ ฌ์ ๊ณ ์ ๊ฐ ๋ํ ์ค์์ด๋ค. ๏ง ๋ง์ฝ A๊ฐ ์์ ์ ๋ถํธ ํ๋ ฌ์ด๋ผ๋ฉด ๋ชจ๋ ๊ณ ์ ๊ฐ์ ์์์ด๋ค. 41 02_ํ๋ ฌ ๋์ ๏ถ ๊ณ ์ ๊ฐ๊ณผ ๊ณ ์ ๋ฒกํฐ (eigenvalues and eigenvectors) 42 02_ํ๋ ฌ ๋์ ๏ง ๋๊ฐํ์ ํน์ด๋ฒกํฐ, ํน์ด๊ฐ ๏ง A์ ๊ณ ์ ๊ฐ์ด λ1, …, λn ,์ด์ ๋์ํ๋ 1์ฐจ ๋ ๋ฆฝ์ธ ๊ณ ์ ๋ฒกํฐ๊ฐ v1, …, vn ์ด๋ผ๊ณ ํ ๋, C๋ฅผ ๋ค์๊ณผ ๊ฐ์ด v1, …, vn ์ ์ด๋ฒกํฐ๋ก ํ๋ ํ๋ ฌ์ด๋ผ๊ณ ํ์. ๏ง Avn = λnvn ์ด๋ฏ๋ก, ํ๋ ฌ ๊ณฑ์ ์ ์ด๋ก ํํํ๋ฉด ๋ค์์ ์ป์ ์ ์๋ค. AC = CΛ → A = CΛC-1 : ํ๋ ฌ A๋ ์์ ์ ๊ณ ์ ๋ฒกํฐ๋ค์ ์ด๋ฒกํฐ๋ก ํ๋ ํ๋ ฌ๊ณผ ๊ณ ์ ๊ฐ์ ๋ ๊ฐ์์๋ก ํ๋ ํ๋ ฌ์ ๊ณฑ์ผ๋ก ๋๊ฐํ ๋ถํด ๊ฐ๋ฅ = eigen decomposition ํ๋ ฌ A์ ๋๊ฐํ ๏ง n×nํ๋ ฌ A๊ฐ n๊ฐ์ 1์ฐจ ๋ ๋ฆฝ์ธ ๊ณ ์ ๋ฒกํฐ๋ฅผ ๊ฐ์ง๋ค๋ฉด, ์ด ๊ณ ์ ๋ฒกํฐ๋ค์ A๋ฅผ ๋๊ฐํํ๋ ํ๋ ฌ C์ ์ด๋ค๋ก ์ฌ์ฉ๋ ์ ์๋ค. ๊ทธ๋ฆฌ๊ณ ๋๊ฐํ๋ ฌ์ A์ ๊ณ ์ ๊ฐ์ ๋๊ฐ์์๋ก ๊ฐ์ง๋ค. 43 02_ํ๋ ฌ ๋์ ๏ถ 2์ฐจ ํ์ ๏ง 3๊ฐ์ ๋ณ์ x, y, z์ 2์ฐจ ํ์(quadratic form)์ ๋ค์๊ณผ ๊ฐ์ ๋์ฐจ ํจ์์์ ๋งํจ ๏ง 2์ฐจ ํจ์์ด๊ธฐ ๋๋ฌธ์ 2์ฐจ ํ์์ด๋ผ๊ณ ํ๋ค. F = ax2 + by2 + cz2 + 2fxy + 2gyz + 2hzx ๏ง ํ๋ ฌ์ ์ด์ฉํ์ฌ ํ์ํ๋ฉด ๏ง ์ผ๋ฐํํ๋ฉด ๏ง x=(x1, x2, …, xn), A = (aij)๋ผ๊ณ ํ ๋ 44 02_ํ๋ ฌ ๋์ ๏ถ SVD : ํน์ด๊ฐ ์ฌ๊ตฌ์ฑ (Singular Value Decomposition) ๏ง ์ด๋ค n×m ํ๋ ฌ A๋ ๋ค์๊ณผ ๊ฐ์ ํํ์ ์ธ ๊ฐ์ง ํ๋ ฌ์ ๊ณฑ์ผ๋ก ์ฌ๊ตฌ์ฑํ ์ ์๋ค ๏ง U๋ ํน์ด ๋ฒกํฐ๋ฅผ ์ด๋ฃจ๋ ์ด๋ก ๊ตฌ์ฑ๋๋ฉฐ, VT๋ ํน์ด ๋ฒกํฐ๋ฅผ ์ด๋ฃจ๋ ํ์ผ๋ก ๊ตฌ์ฑ๋๋ค. ๏ m×mํ๋ ฌ U์ ํ์ AAT ์ ๊ณ ์ ๋ฒกํฐ. ๏ n×n ํ๋ ฌ V์ ํ์ ATA ์ ๊ณ ์ ๋ฒกํฐ. ๏ง Σ์ n×m ์ธ ๋๊ฐํ๋ ฌ๋ก, ๋๊ฐ์ฑ๋ถ์ 0์ด ์๋ ์์๋ก ๊ตฌ์ฑ๋๋ฉฐ, ์ด ๋๊ฐ์ฑ๋ถ์ ํน์ด๊ฐ์ด๋ผ๊ณ ํ๋ค. ๏ง Σ์ ํน์ด๊ฐ๋ค์ AAT์ ATA ์ ๊ณ ์ ๊ฐ์ ์์น๊ทผ์ ํด๋นํ๋ค. ๏ง ์์ด ์๋ ํน์ด๊ฐ์ ์๋ ํ๋ ฌ A์ ํ๋ ฌ์ ๊ณ์(rank)์ ๊ฐ๋ค. 45 † Singular Value Decomposition A matrix A can be factorized as the following form: A m ๏ด n ๏ฝ U m ๏ด m Σ m ๏ด n Vn๏ด n T ๏ฉ๏ณ 1 ๏ช 0 ๏ช ๏ช ๏ Σ ๏ฝ ๏ช ๏ช0 ๏ช ๏ ๏ช ๏ช๏ซ 0 0 ๏ ๏ณ2 ๏ ๏ ๏ 0 ๏ ๏ 0 ๏ 0 ๏น ๏บ 0 ๏บ ๏ ๏บ ๏บ ๏ณn๏บ ๏ ๏บ ๏บ 0 ๏บ๏ป (m ๏ณ n) U and V are orthogonal, and Σ is diagonal. ๏ณ1 ๏ณ ๏ณ 2 ๏ณ ๏ ๏ณ ๏ณ n ๏ณ 0 U U ๏ฝI T det = 1: rotational transformation V V ๏ฝI T det = -1: (orthogonal) reflective transformation, or axis permutation. 46 ์ฐธ์กฐ: Singular Value Decomposition (SVD) ๏ถ A rectangular matrix A can be broken down into the product of three matrices: an orthogonal matrix U, a diagonal matrix S, and the transpose of an orthogonal matrix V. Amn = UmmSmnVnnT , where UTU = I, VTV = I ; the coloumns of U are orthonormal eigenvectors of AAT, the columns of V are orthonormal eigenvectors of ATA. S is a diagonal matrix containing the square roots of eigenvalues from U or V in descending order. ๏ถ Example ๏ฉ 3 A๏ฝ๏ช ๏ซ๏ญ 1 1 3 1๏น ๏บ 1๏ป - To find U, we have to start with AAT. ๏ฉ3 ๏ช T A ๏ฝ 1 ๏ช ๏ช๏ซ 1 ๏ญ 1๏น ๏บ 3 , ๏บ 1 ๏บ๏ป AA T ๏ฉ 3 ๏ฝ ๏ช ๏ซ๏ญ 1 1 3 ๏ฉ3 1๏น ๏ช ๏บ 1 1๏ป ๏ช ๏ช๏ซ 1 ๏ญ 1๏น ๏บ ๏ฉ11 3 ๏ฝ ๏ช ๏บ ๏ซ1 1 ๏บ๏ป 1๏น ๏บ 11 ๏ป 47 ์ฐธ์กฐ: Singular Value Decomposition (SVD) - To find the eigenvalues & corresponding eigenvectors of AAT. ๏จ11 ๏ญ ๏ฌ ๏ฉ x1 ๏ซ x 2 11 x1 ๏ซ x 2 ๏ฝ ๏ฌ x1 ๏ฉ x1 ๏น ๏ฉ11 1 ๏น ๏ฉ x1 ๏น ๏ช ๏บ๏ช ๏บ ๏ฝ ๏ฌ ๏ช ๏บ x1 ๏ซ 11 x 2 ๏ฝ ๏ฌ x 2 x1 ๏ซ ๏จ11 ๏ญ ๏ฌ ๏ฉ x 2 ๏ซ 1 11 ๏ป ๏ซ x 2 ๏ป ๏ซ x2 ๏ป ๏จ11 ๏ญ ๏ฌ ๏ฉ 1 1 ๏จ11 ๏ญ ๏ฌ ๏ฉ ๏ฝ0 ๏จ11 ๏ญ ๏ฌ ๏ฉ๏จ11 ๏ญ ๏ฌ ๏ฉ ๏ญ 1 ๏ 1 ๏ฝ 0 ๏ฎ ๏จ๏ฌ ๏ญ 10 ๏ฉ๏จ๏ฌ ๏ญ 12 ๏ฉ ๏ฝ 0 ๏ฝ0 - For λ= 10, ๏จ11 ๏ญ 10 ๏ฉ x1 ๏ซ x 2 ๏ฝ 0 For λ= 12, ๏จ11 ๏ญ 12 ๏ฉ x1 ๏ซ x 2 ๏ฝ 0 ๏ฝ0 ๏ฎ x1 ๏ฝ ๏ญ x 2 ๏ฎ x1 ๏ฝ x 2 ๏ฎ ๏ฎ [1, ๏ญ 1] [1, 1] - These eigenvectors become column vectors in a matrix ordered by the size of the corresponding eigenvalue. ๏ฉ1 ๏ช ๏ซ1 1 ๏น ๏บ ๏ญ 1๏ป - Convert this matrix into an orthogonal matrix which we do by applying the Gram-Schmidt orthonormalization process to the column vectors. 48 ์ฐธ์กฐ: Singular Value Decomposition (SVD) 1) Begin by normalizing v1. ๏ฉ 1 w 2 ๏ฝ v 2 ๏ญ u 1 ๏ v 2 ๏ช u 1 ๏ฝ ๏1, ๏ญ 1๏ ๏ญ ๏ช , ๏ซ 2 2) normalize u2๏ฝ - The calculation of V: w2 w2 ๏ฝ v1 ๏ฉ 1 ๏ฝ๏ช , 2 2 ๏ซ 2 1 ๏ซ1 [1, 1] 1 ๏น ๏ฉ 1 ๏ ๏ ๏ 1 , ๏ญ 1 ๏ช , ๏บ ๏ช 2๏ป ๏ซ 2 ๏ฉ 1 ๏ฝ ๏ช , ๏ซ 2 ๏ฉ3 ๏ช T A A๏ฝ 1 ๏ช ๏ช๏ซ 1 v1 u1 ๏ฝ ๏ญ1 ๏น ๏บ 2๏ป ๏ญ 1๏น ๏บ๏ฉ 3 3 ๏ช ๏บ ๏ญ1 ๏ซ 1 ๏บ๏ป 1 3 ๏ฉ10 1๏น ๏ช ๏บ๏ฝ 0 1๏ป ๏ช ๏ช๏ซ 2 0 1 ๏น ๏บ 2๏ป 1 ๏น ๏บ ๏ฝ ๏1, ๏ญ 1๏ ๏ญ [ 0 , 0 ] ๏ฝ ๏1, ๏ญ 1๏ 2๏ป 1 ๏น ๏ฉ 1 ๏ช ๏บ 2 2 U ๏ฝ ๏ช ๏บ 1 ๏ญ1 ๏ช ๏บ ๏ช๏ซ 2 2 ๏บ๏ป 2๏น ๏บ 4 ๏บ 2 ๏บ๏ป 10 4 1) find the eigenvalues of ATA by ๏ฉ10 ๏ช 0 ๏ช ๏ช๏ซ 2 0 10 4 2 ๏น ๏ฉ x1 ๏น ๏ฉ x1 ๏น ๏บ๏ช ๏บ ๏ช ๏บ 4 x2 ๏ฝ ๏ฌ x2 ๏บ๏ช ๏บ ๏ช ๏บ ๏ช๏ซ x 3 ๏บ๏ป 2 ๏บ๏ป ๏ช๏ซ x 3 ๏บ๏ป ๏จ10 ๏ญ ๏ฌ ๏ฉ 0 2 0 ๏จ10 ๏ญ ๏ฌ ๏ฉ 4 2 4 ๏จ2 ๏ญ ๏ฌ ๏ฉ ๏ฝ0 λ = 0, 10, 12 49 ์ฐธ์กฐ: Singular Value Decomposition (SVD) 2) λ = 12์ผ ๋, v1 = [1, 2, 1] ๏ฉ1 ๏ช 2 ๏ช ๏ช๏ซ 1 λ = 10์ผ ๋, v2 = [2, -1, 0] λ = 0์ผ ๋, v3 = [1, 2, -5] 3) an orthonormal matrix w 2 ๏ฝ v 2 ๏ญ u 1 ๏ v 2 ๏ช u 1 ๏ฝ ๏2 , u1 ๏ฝ ๏ญ 1, 0 ๏, v1 v1 u2 ๏ฝ ๏ฉ๏ญ 2 w 3 ๏ฝ v 3 ๏ญ u1 ๏ v 3 ๏ช u1 ๏ญ u 2 ๏ v 3 ๏ช u 2 ๏ฝ ๏ช , 3 ๏ซ 4) Amn = UmmSmnVnn ๏ฉ 1 ๏ช ๏ฝ ๏ช 2 1 ๏ช ๏ช๏ซ 2 1 ๏น ๏บ 2 ๏ฉ 12 ๏บ ๏ญ1 ๏ช 0 ๏บ๏ซ 2 ๏บ๏ป 0 10 ๏ฉ ๏ช ๏ช 0๏น ๏ช ๏บ 0๏ป ๏ช ๏ช ๏ช ๏ซ ๏ฉ 1 ๏ฝ๏ช , ๏ซ 6 w2 ๏ญ4 3 T 1 2 6 2 6 ๏ญ1 5 1 5 2 30 30 1 ๏น ๏บ 6 ๏บ ๏ฉ 3 0 ๏บ๏ฝ ๏ช ๏บ ๏ซ๏ญ 1 ๏ญ5 ๏บ ๏บ 30 ๏ป 1 3 , 1๏น ๏บ 1๏ป ๏ฉ ๏ช ๏ช V ๏ฝ ๏ช ๏ช ๏ช ๏ช ๏ซ ๏ญ1 0 2 1 ๏น ๏บ 6๏ป , 6 ๏ญ1 ๏ฉ 2 ๏ฝ ๏ช , ๏ซ 5 w2 1 ๏น ๏บ 2 ๏บ ๏ญ 5 ๏บ๏ป 2 , 5 ๏น 0๏บ ๏ป w3 10 ๏น ๏ฉ 1 , u ๏ฝ ๏ฝ , 3 ๏ช 3 ๏บ๏ป w3 ๏ซ 30 1 2 6 2 5 ๏ญ1 6 1 5 6 0 1 ๏น ๏บ 30 ๏บ 2 ๏บ , 30 ๏บ ๏ญ5 ๏บ ๏บ 30 ๏ป V T ๏ฉ ๏ช ๏ช ๏ฝ ๏ช ๏ช ๏ช ๏ช ๏ซ 2 , 30 1 2 6 2 6 ๏ญ1 5 1 5 2 30 30 ๏ญ5 ๏น ๏บ 30 ๏ป 1 ๏น ๏บ 6 ๏บ 0 ๏บ ๏บ ๏ญ5 ๏บ ๏บ 30 ๏ป 50 † Singular Value Decomposition Given a matrix A, it can be factorized as the following form: A m ๏ด n ๏ฝ U m ๏ด m Σ m ๏ด n Vn๏ด n T Example: (m ๏ณ n) Ax ๏ฝ x' x For a matrix A such that : Rotation by V: x T V x And then, rotated again by U: U Σ V x ๏ฝ Ax T Scaling by Σ : T ΣV x 51 02_ํ๋ ฌ ๋์ ๏ถ ์ ํ ๋ณํ ๋ฐ์ดํฐ์ ๋ณํ ๏ง ๋ฒกํฐ ๊ณต๊ฐ XN ์ผ๋ก๋ถํฐ ๋ฒกํฐ ๊ณต๊ฐ YM ์์ผ๋ก์ ์ฌ์ (mapping) ๏ง ๋ฒกํฐ x ∈XN ๊ฐ ์ฃผ์ด์ง ๋ YM ์์ ๋์ ๋๋ ๋ฒกํฐ y๋ ๋ค์๊ณผ ๊ฐ์ด ๊ณ์ฐํ๋ค. ๏ง ์ ํ ๋ณํ์ด ์ด๋ฃจ์ด์ง๋ ๋ ๋ฒกํฐ ๊ณต๊ฐ์ ์ฐจ์์ด ๊ฐ์ ํ์๋ ์๋ค. ๏ ์ ํ ๋ณํ ํ๋ ฌ์ด ์ ๋ฐฉํ๋ ฌ A์ด๊ณ AAT = ATA = I ์ผ ๋, ์ ๊ท์ง๊ตํ๋ค๊ณ ๋งํ๋ค. ๏ฉ cos ๏ฑ ๏ช ๏ซ sin ๏ฑ - sin ๏ฑ ๏น ๏บ, cos ๏ฑ ๏ป ๏ฉ- 1 ๏ช ๏ซ0 0๏น ๏บ - 1๏ป 52 02_ํ๋ ฌ ๋์ ๏ง ์ ๊ท ์ง๊ต์ด๋ฉด AT=A-1 ์ด๋ค. ๏ง ์ ๊ท์ง๊ต ๋ณํํ๊ฒ ๋๋ฉด, ๋ค์ ์์์ ๋ฒกํฐ์ ํฌ๊ธฐ๋ฅผ ๋ณด์กดํ๋ ์ฑ์ง์ ๊ฐ์ง์ ์ ์ ์๋ค. ๏ง ์ ๊ท์ง๊ต ๋ณํ์ ํ๋ฒกํฐ (a1,a2,…,aN) ๋ ์ ๊ท ์ง๊ต ๊ธฐ์ ๋ฒกํฐ์งํฉ์ ํ์ฑํ๋ค. 53