矩估计是什么呢?简单的说,就是 用样本矩代替总体矩进行统计推断的方法。
一个最基础的例子是正态总体的参数估计问题。如果X i ∼ N ( μ , σ 2 ) X_i \sim N(\mu,\sigma^2)X i ∼N (μ,σ2 ),如何估计μ \mu μ和σ 2 \sigma^2 σ2呢? 统计学一般会介绍两种估计方法:极大似然估计和矩估计。
总体矩条件:
μ = E ( x ) σ 2 = E ( x 2 ) − μ 2 \begin{aligned} \mu &= E(x) \ \sigma^2 &= E(x^2)- \mu^2 \end{aligned}μσ2 =E (x )=E (x 2 )−μ2 样本矩条件:
μ ^ = 1 N ∑ i = 1 N x i = x ˉ i σ 2 ^ = 1 N ∑ i = 1 N x i 2 − μ ^ 2 = 1 N ∑ i = 1 N x i 2 − ( x ˉ i ) 2 = x i 2 ˉ + x ˉ i 2 \begin{aligned} \hat\mu &= \frac {1}{N} \sum_{i=1}^N x_i=\bar x_i \ { \hat {\sigma^2}} &= \frac {1}{N} \sum_{i=1}^N x_i^2 -\hat\mu ^2 = \frac {1}{N} \sum_{i=1}^N x_i^2 -{(\bar x_i)}^2 = \bar {x_i^2}+\bar x_i^2 \end{aligned}μ^σ2 ^=N 1 i =1 ∑N x i =x ˉi =N 1 i =1 ∑N x i 2 −μ^2 =N 1 i =1 ∑N x i 2 −(x ˉi )2 =x i 2 ˉ+x ˉi 2
可以用样本矩代替总体矩的原因是,根据大数定理,当样本量足够大的时候,样本矩与总体矩只差了一个无穷小量:x ˉ i − μ \bar x_i – \mu x ˉi −μ = Op(1) ;x ˉ i 2 = μ 2 + σ 2 \bar x_i^2 =\mu^2+\sigma^2 x ˉi 2 =μ2 +σ2 + Op(1) 去掉无穷小量,则相当于用样本矩代替总体矩,得到参数的估计。
1.1 OLS估计
OLS估计是矩估计的一个特例。OLS估计的公式为:
Y i = X i ′ β + μ i Y_i = {X_i} ^{\prime} \beta+\mu_i Y i =X i ′β+μi
X 为 k × n 矩 阵 ; X i 为 k × 1 向 量 ; 1 ; X i ′ 为 1 × k 向 量 ; β 为 k × 1 向 量 ; Y i 为 1 × 1 向 量 ; μ i 为 1 × 1 向 量 X为k\times n矩阵;X_i为k\times 1向量;1;{X_i} ^{\prime}为1\times k向量;\beta 为k\times 1向量; Y_i为1\times 1向量; \mu_i为1\times1向量X 为k ×n 矩阵;X i 为k ×1 向量;1 ;X i ′为1 ×k 向量;β为k ×1 向量;Y i 为1 ×1 向量;μi 为1 ×1 向量
由于X i X_i X i 和μ i \mu_i μi 无关,则
E ( μ i ∣ X i ) = 0 → E ( X i μ i ) = 0 → E ( X i ( Y i − X i ′ β ) ) = 0 E(\mu_i|X_i)=0 \rightarrow E(X_i \mu_i)=0 \rightarrow E(X_i(Y_i – {X_i} ^{\prime} \beta ))=0 E (μi ∣X i )=0 →E (X i μi )=0 →E (X i (Y i −X i ′β))=0其中E [ X i ( Y i − X i ′ β ) ] = 0 E[X_i(Y_i – {X_i} ^{\prime} \beta )]=0 E [X i (Y i −X i ′β)]=0是总体矩条件,对应的样本矩条件为:1 N ∑ i = 1 N [ X i ( Y i − X i ′ β ^ M M ) ] = 0 \frac {1}{N} \sum \limits_{i=1}^N [X_i (Y_i-{X_i}^{\prime} \hat \beta_{MM} )]=0 N 1 i =1 ∑N [X i (Y i −X i ′β^M M )]=0,得到:
β ^ M M = ∑ i = 1 N ( X i Y i ) ∑ i = 1 N ( X i X i ′ ) \widehat \beta_{MM}= \frac {\sum \limits_{i=1}^N (X_iY_i)} {\sum \limits_{i=1}^N (X_i {X_i}^{\prime} )}βM M =i =1 ∑N (X i X i ′)i =1 ∑N (X i Y i ) 另一种推导方法:
Y = X β + μ ⇒ E [ X ′ u ] = E [ X ′ ( Y − X β ) ] = 0 ⇒ β ^ M M = [ X ′ X ] − 1 X ′ Y \begin{aligned} & Y= X \beta+\mu \ & \Rightarrow E[X^{\prime} u] =E[X^{\prime} (Y-X \beta)] = 0 \ &\Rightarrow \widehat \beta_{MM} = [X^{\prime} X]^{-1} X^{\prime} Y \end{aligned}Y =X β+μ⇒E [X ′u ]=E [X ′(Y −X β)]=0 ⇒βM M =[X ′X ]−1 X ′Y
此 处 X 为 n × k 矩 阵 ; β 为 k × 1 向 量 ; Y 为 n × 1 向 量 ; μ 为 n × 1 向 量 ; 此处 X为n\times k矩阵;\beta 为k\times 1向量;Y为n \times 1向量; \mu为n \times 1向量;此处X 为n ×k 矩阵;β为k ×1 向量;Y 为n ×1 向量;μ为n ×1 向量;
[ X ′ X ] − 1 为 k × k 矩 阵 ; X ′ Y 为 k × 1 矩 阵 ; ⇒ β ^ M M 为 k × 1 向 量 ; [X^{\prime} X]^{-1}为k\times k矩阵;X^{\prime} Y为k\times 1矩阵;\Rightarrow \widehat \beta_{MM} 为k\times 1向量;[X ′X ]−1 为k ×k 矩阵;X ′Y 为k ×1 矩阵;⇒βM M 为k ×1 向量;
1.2 IV估计
工具变量Z i Z_i Z i 满足条件:E ( μ i ∣ Z i ) = 0 E(\mu_i|Z_i)=0 E (μi ∣Z i )=0,因此总体矩条件为:E [ Z i ( Y i − X i ′ β ) ] = 0 E[Z_i(Y_i – {X_i}^{\prime} \beta )]=0 E [Z i (Y i −X i ′β)]=0,对应的样本矩条件为:1 N ∑ i = 1 N [ Z i ( Y i − X i ′ β ^ M M ) ] = 0 \frac {1}{N} \sum \limits_{i=1}^N [Z_i (Y_i- {X_i}^{\prime} \hat \beta_{MM} )]=0 N 1 i =1 ∑N [Z i (Y i −X i ′β^M M )]=0,得到:β ^ M M = ∑ i = 1 N ( Z i Y i ) ∑ i = 1 N ( Z i X i ′ ) \widehat \beta_{MM}= \frac {\sum \limits_{i=1}^N (Z_iY_i)} {\sum \limits_{i=1}^N (Z_i {X_i}^{\prime})}βM M =i =1 ∑N (Z i X i ′)i =1 ∑N (Z i Y i ) 另一种推导方法:
⇒ E [ Z ′ u ] = E [ Z ′ ( Y − X β ) ] = 0 ⇒ β ^ M M = [ Z ′ X ] − 1 Z ′ Y \begin{aligned} & \Rightarrow E[Z^{\prime} u] =E[Z^{\prime} (Y-X \beta)] = 0 \ &\Rightarrow \widehat \beta_{MM} = [Z^{\prime} X]^{-1} Z^{\prime} Y \end{aligned}⇒E [Z ′u ]=E [Z ′(Y −X β)]=0 ⇒βM M =[Z ′X ]−1 Z ′Y
2.1 为什么要使用广义矩估计
GMM 是矩估计(MM)的推广。在恰好识别情况下(待估参数个数等于矩条件个数),目标函数的最小值等于 0,GMM 估计量与 MM 估计量等价;然而在过度识别情况下(待估参数个数小于矩条件个数),MM 不再适用,GMM 可以有效地组合矩条件,使 GMM 比 MM 更有效。
在估计正态分布μ \mu μ和σ 2 \sigma^2 σ2的例子中,我们只使用了两个矩条件。然而我们知道,正态分布的矩是有无穷多个可以用的,那么我们是不是可以使用更多的矩条件呢(更多的矩条件意味着更多的信息)?但是有个问题不好解决。在这个例子里面,我们有两个未知参数,如果只使用一阶矩,那么只有一个方程解两个未知数,显然是不可能的。像上面一样,我们用两个矩条件解两个未知数,就解出来了。然而,当我们用一到三阶矩,总共三个方程求解的时候,三个方程求解两个未知数,可能无解。方程数多了,反而没有解了,为什么呢?其实很简单,用三个方程中的任意两个方程,都可以求出一组解,那么三个方程我们就可以求出三组解。所以应该如何把这些矩条件都用上呢?到这里我们不妨引入一些记号。
g ( x i , θ ) = [ x i ˉ − μ , x i 2 ˉ − μ 2 − σ 2 , x i 3 ˉ − μ 3 − 3 μ σ 2 ] ′ , θ = μ , σ 2 g(x_i,\theta) = [\bar {x_i}-\mu,\bar {x_i^2}-\mu^2-\sigma^2,\bar {x_i^3}-\mu^3-3\mu\sigma^2]^{\prime},\theta = {\mu,\sigma^2}g (x i ,θ)=[x i ˉ−μ,x i 2 ˉ−μ2 −σ2 ,x i 3 ˉ−μ3 −3 μσ2 ]′,θ=μ,σ2 我们可以得到一个3*1的列向量,并且:
E [ g ( x i , θ ) ] = 0 E[g(x_i,\theta)] =0 E [g (x i ,θ)]=0 用样本矩代替总体矩:
1 N ∑ i = 1 N [ g ( x i , θ ^ ) ] = 0 \frac {1}{N} \sum\limits_{i=1}^N [g(x_i,\hat \theta)] =0 N 1 i =1 ∑N [g (x i ,θ^)]=0
解这个方程应该就可以得到参数θ的估计。但是正如上面所说的,三个方程两个未知数,并不能确保这个方程有解,所以必须想一些其他办法。由于上面的g函数是一个3*1的列向量,我们可以使用一个权重矩阵W来赋予每个矩条件以不同的权重:
min θ ^ i = [ 1 N ∑ i = 1 N [ g ( x i , θ ^ ) ] ] ′ ∗ W [ 1 N ∑ i = 1 N [ g ( x i , θ ^ ) ] ] (1) \min \limits_{\hat \theta_i} = \left[ \frac {1}{N} \sum\limits_{i=1}^N [g(x_i,\hat \theta)] \right]^{\prime} * W\left[ \frac {1}{N} \sum\limits_{i=1}^N [g(x_i,\hat \theta)] \right] \tag{1}θ^i min =[N 1 i =1 ∑N [g (x i ,θ^)]]′∗W N 1 i =1 ∑N [g (x i ,θ^)]
只要这个W是一个正定矩阵,那么仍然可以保证每个样本矩都足够贴近于0。那么问题来了,既然对W的要求只要求正定矩阵,那么使用不同的权重矩阵就有可能得到不同的结果。问题是,有没有一个最优的权重矩阵呢?当然是有的。可以证明,最优的权重矩阵应该是:
[ E [ g ( x i , θ ) ] g ( x i , θ ) ′ ] − 1 [E[g(x_i,\theta)] {g(x_i,\theta)}^{\prime}]^{-1}[E [g (x i ,θ)]g (x i ,θ)′]−1
2.2 IV估计
总体矩条件:E [ z i ( y i − x i ′ β ) ] = 0 E[z_i(y_i – x_i^{\prime} \beta)]=0 E [z i (y i −x i ′β)]=0,代入上面的公式,最优权重矩阵(的逆)为:
E [ g ( x i , θ ) ] g ( x i , θ ) ′ = E [ z i ( y i − x i ′ β ) ] [ z i ( y i − x i ′ β ) ] ′ = E [ z i ( y i − x i ′ β ) ] [ ( y i − β x i ) ′ z i ′ ] = E [ z i ϵ 2 z i ′ ] = σ 2 ∗ 1 N ∑ i = 1 N z i z i ′ \begin{aligned} E[g(x_i,\theta)] {g(x_i,\theta)}^{\prime} &=E[z_i (y_i – x_i^{\prime} \beta )] {[z_i (y_i – {x_i}^{\prime} \beta)]}^{\prime} \ &=E[z_i (y_i – x_i^{\prime} \beta )] [{(y_i – \beta x_i)}^{\prime} z_i^{\prime}] \ &=E[z_i \epsilon^2 {z_i}^{\prime}] \ &=\sigma^2 \frac {1}{N} \sum\limits_{i=1}^N z_i {z_i}^{\prime} \end{aligned}E [g (x i ,θ)]g (x i ,θ)′=E [z i (y i −x i ′β)][z i (y i −x i ′β)]′=E [z i (y i −x i ′β)][(y i −βx i )′z i ′]=E [z i ϵ2 z i ′]=σ2 ∗N 1 i =1 ∑N z i z i ′ 把最优权重矩阵代入1式:
min β = [ z i ( y i − x i ′ β ) ] ′ ∗ σ 2 ∗ [ z i ∗ z i ′ ] = σ 2 ∗ [ Z ′ ( Y − X β ) ] ′ [ Z ′ Z ] − 1 = 0 \begin{aligned} \min \limits_{\beta}&= {[z_i(y_i – {x_i}^{\prime} \beta )]}^{\prime} * \sigma^2[z_i{z_i}^{\prime}] \ &= \sigma^2 {[Z^{\prime}(Y-X\beta)]}^{\prime} [{Z}^{\prime}Z]^{-1} =0 \end{aligned}βmin =[z i (y i −x i ′β)]′∗σ2 ∗[z i ∗z i ′]=σ2 ∗[Z ′(Y −X β)]′[Z ′Z ]−1 =0 对上式左右两边同时乘以Z ′ ( Y − X β ) Z^{\prime} (Y-X\beta)Z ′(Y −X β):
σ 2 ∗ [ Z ′ ( Y − X β ) ] ′ [ Z ′ Z ] − 1 Z ′ ( Y − X β ) = 0 (2) \sigma^2 {[Z^{\prime}(Y-X\beta)]}^{\prime} [{Z}^{\prime}Z]^{-1} Z^{\prime} (Y-X\beta) =0 \tag{2}σ2 ∗[Z ′(Y −X β)]′[Z ′Z ]−1 Z ′(Y −X β)=0 (2 ) 对2式求一阶导得:
∂ ( Y − X β ) ∂ X ∗ ∂ { ( Y − X β ) ′ Z ( Z ′ Z ) − 1 Z ′ ( Y − X β ) } ∂ ( Y − X β ) = X ′ ( A + A ′ ) X = X ′ ( Z ( Z ′ Z ) − 1 Z ′ ) ( Z ( Z ′ Z ) − 1 Z ′ ) ′ ( Y − X β ) = 2 ∗ X ′ Z ( Z ′ Z ) − 1 Z ′ ( Y − X β ) = 0 (3) \frac {\partial (Y-X\beta) } {\partial X} * \frac {\partial { {(Y-X\beta)}^{\prime}Z ({Z}^{\prime}Z)^{-1} Z^{\prime} (Y-X\beta) } }{\partial (Y-X\beta) } = X^{\prime}(A+A^{\prime})X \ =X^{\prime} \ (Z ({Z}^{\prime}Z)^{-1} Z^{\prime}) \ {(Z ({Z}^{\prime}Z)^{-1} Z^{\prime})}^{\prime} (Y-X\beta) \ =2X^{\prime} Z ({Z}^{\prime}Z)^{-1} Z^{\prime} (Y-X\beta) =0 \tag{3}∂X ∂(Y −X β)∗∂(Y −X β)∂{(Y −X β)′Z (Z ′Z )−1 Z ′(Y −X β)}=X ′(A +A ′)X =X ′(Z (Z ′Z )−1 Z ′)(Z (Z ′Z )−1 Z ′)′(Y −X β)=2 ∗X ′Z (Z ′Z )−1 Z ′(Y −X β)=0 (3 )
矩阵求导公式 参考
∂ ( X T A X ) ∂ X = ( A + A T ) X ; ∂ ( A X ) ∂ X = A T \begin{aligned} \frac {\partial (X^TAX)}{\partial X} = (A+A^T)X ; \quad \frac {\partial (AX)}{\partial X} = A^T \end{aligned}∂X ∂(X T A X )=(A +A T )X ;∂X ∂(A X )=A T
由3式子得到β ^ \widehat \beta β:
β ^ = { X ′ Z ( Z ′ Z ) − 1 Z ′ X } − 1 X ′ Z ( Z ′ Z ) − 1 Z ′ Y (4) \widehat \beta = {X^{\prime} Z({Z}^{\prime}Z)^{-1} Z^{\prime} X}^{-1} X^{\prime} Z ({Z}^{\prime}Z)^{-1} Z^{\prime} Y \tag{4}β={X ′Z (Z ′Z )−1 Z ′X }−1 X ′Z (Z ′Z )−1 Z ′Y (4 ) 令X ^ ′ = X ′ Z ( Z ′ Z ) − 1 Z ′ \hat X^{\prime} = X^{\prime} Z({Z}^{\prime}Z)^{-1} Z^{\prime}X ^′=X ′Z (Z ′Z )−1 Z ′,则β ^ = [ X ^ ′ X ] − 1 X ^ ′ Y = [ X ^ ′ X ^ ′ ] − 1 X ^ ′ Y \widehat \beta = [\hat X^{\prime} X]^{-1} \hat X^{\prime} Y = [\hat X^{\prime} \hat X^{\prime}]^{-1} \hat X^{\prime} Y β=[X ^′X ]−1 X ^′Y =[X ^′X ^′]−1 X ^′Y,正是两阶段最小二乘的第二步。
X ^ = Z ( Z ′ Z ) − 1 Z ′ X = Z γ ^ \hat X= Z({Z}^{\prime}Z)^{-1} Z^{\prime} X = Z \widehat \gamma X ^=Z (Z ′Z )−1 Z ′X =Z γ,其中γ ^ = ( Z ′ Z ) − 1 Z ′ X \widehat \gamma = ({Z}^{\prime}Z)^{-1} Z^{\prime}X γ=(Z ′Z )−1 Z ′X,正是两阶段最小二乘的第一步
两阶段最小二乘的推导:
阶段一:
工具变量Z回归X,得到X拟合值。
X = Z γ + ϵ ⇒ γ ^ = [ Z ′ Z ] − 1 Z ′ X ⇒ X ^ = Z γ ^ = Z [ Z ′ Z ] − 1 Z ′ X \begin{aligned} & X = Z \gamma +\epsilon \ & \Rightarrow \widehat \gamma = [Z^{\prime} Z]^{-1} Z^{\prime} X \ & \Rightarrow \widehat X = Z \widehat \gamma = Z [Z^{\prime} Z]^{-1} Z^{\prime} X \end{aligned}X =Z γ+ϵ⇒γ=[Z ′Z ]−1 Z ′X ⇒X =Z γ=Z [Z ′Z ]−1 Z ′X 阶段二: X拟合值回归Y,得到β ^ \widehat \beta β与用广义矩估计得到的4式相同
Y = X ^ β + μ ⇒ β ^ = [ X ^ ′ X ^ ] − 1 X ^ ′ Y = { ( Z [ Z ′ Z ] − 1 Z ′ X ) ′ ( Z [ Z ′ Z ] − 1 Z ′ X ) } − 1 ( Z [ Z ′ Z ] − 1 Z ′ X ) Y = { ( X ′ Z [ Z ′ Z ] − 1 Z ′ ) ( Z [ Z ′ Z ] − 1 Z ′ X ) } − 1 ( Z [ Z ′ Z ] − 1 Z ′ X ) Y [ Z ′ Z ] − 1 Z ′ Z = I = { X ′ Z ( Z ′ Z ) − 1 Z ′ X } − 1 X ′ Z ( Z ′ Z ) − 1 Z ′ Y \begin{aligned} & Y = \widehat X \beta +\mu \ \Rightarrow \widehat \beta & = [{ \widehat X}^{\prime} \widehat X]^{-1} { \widehat X}^{\prime} Y \ &={ (Z [Z^{\prime} Z]^{-1} Z^{\prime} X)^{\prime} (Z [Z^{\prime} Z]^{-1} Z^{\prime} X) } ^{-1} (Z [Z^{\prime} Z]^{-1} Z^{\prime} X) Y \ &={ (X^{\prime} Z [Z^{\prime} Z]^{-1} Z^{\prime} ) (Z [Z^{\prime} Z]^{-1} Z^{\prime} X) } ^{-1} (Z [Z^{\prime} Z]^{-1} Z^{\prime} X) Y \quad [Z^{\prime} Z]^{-1} Z^{\prime} Z = I \ &= {X^{\prime} Z({Z}^{\prime}Z)^{-1} Z^{\prime} X}^{-1} X^{\prime} Z ({Z}^{\prime}Z)^{-1} Z^{\prime} Y \end{aligned}⇒βY =X β+μ=[X ′X ]−1 X ′Y ={(Z [Z ′Z ]−1 Z ′X )′(Z [Z ′Z ]−1 Z ′X )}−1 (Z [Z ′Z ]−1 Z ′X )Y ={(X ′Z [Z ′Z ]−1 Z ′)(Z [Z ′Z ]−1 Z ′X )}−1 (Z [Z ′Z ]−1 Z ′X )Y [Z ′Z ]−1 Z ′Z =I ={X ′Z (Z ′Z )−1 Z ′X }−1 X ′Z (Z ′Z )−1 Z ′Y
一、矩阵形式表示线性回归
线性回归表达形式:
Y i = β 0 + β 1 x 1 i + . . . + + β 1 x k i + ϵ i i 表 示 样 本 ( 共 n 个 样 本 ) , k 表 示 特 征 Y_i = \beta_0+\beta_1 x_{1i}+…++\beta_1 x_{ki}+\epsilon_i \qquad i表示样本(共n个样本),k表示特征Y i =β0 +β1 x 1 i +…++β1 x k i +ϵi i 表示样本(共n 个样本),k 表示特征 用矩阵形式表达为:Y = X β + ϵ Y = X\beta+\epsilon Y =X β+ϵ;
X n × k = [ 1 x 11 x 21 ⋯ x k 1 1 x 12 x 22 ⋯ x k 2 ⋮ ⋮ ⋮ ⋱ ⋮ 1 x 1 n x 2 n ⋯ x k n ] ; β k × 1 = [ β 1 β 2 ⋮ β k ] ; ϵ n × 1 = [ x 1 x 2 ⋮ x n ] X_{n \times k}= \begin{bmatrix} 1 &x_{11} & x_{21} & \cdots & x_{k1} \ 1& x_{12} & x_{22} & \cdots & x_{k2} \ \vdots& \vdots & \vdots & \ddots & \vdots \ 1&x_{1n} & x_{2n} & \cdots\ & x_{kn} \ \end{bmatrix} ; \quad \beta_{k \times 1}=\begin{bmatrix} \beta_{1} \ \beta_{2} \ \vdots \ \beta_{k} \ \end{bmatrix}; \quad \epsilon_{n \times 1}=\begin{bmatrix} x_{1} \ x_{2} \ \vdots \ x_{n} \ \end{bmatrix}X n ×k =⎣⎢⎢⎢⎡1 1 ⋮1 x 1 1 x 1 2 ⋮x 1 n x 2 1 x 2 2 ⋮x 2 n ⋯⋯⋱⋯x k 1 x k 2 ⋮x k n ⎦⎥⎥⎥⎤;βk ×1 =⎣⎢⎢⎢⎡β1 β2 ⋮βk ⎦⎥⎥⎥⎤;ϵn ×1 =⎣⎢⎢⎢⎡x 1 x 2 ⋮x n ⎦⎥⎥⎥⎤
或者Y i = X i ′ β + ϵ i Y_i = {X_i} ^{\prime} \beta+\epsilon_i Y i =X i ′β+ϵi ,两种矩阵表示形式的X不一样
其中:
X k × n = [ 1 1 ⋯ 1 x 11 x 12 ⋯ x 1 n x 21 x 22 ⋯ x 2 n ⋮ ⋮ ⋱ ⋮ x k 1 x k 2 ⋯ x k n ] ; X i ( k × 1 ) = [ x 1 i x 2 i ⋮ x k i ] ; X i ( 1 × k ) ′ = [ x 1 i x 2 i ⋯ x k i ] X_{k \times n} = \begin{bmatrix} 1&1 & \cdots &1 \ x_{11} & x_{12} & \cdots & x_{1n} \ x_{21} & x_{22} & \cdots & x_{2n} \ \vdots & \vdots & \ddots & \vdots \ x_{k1} & x_{k2} & \cdots\ & x_{kn} \ \end{bmatrix} ; \quad X_{i \ (k \times 1)} = \begin{bmatrix} x_{1i} \ x_{2i} \ \vdots \ x_{ki} \ \end{bmatrix} ; \quad X_{i \ (1\times k)}^{\prime} = \begin{bmatrix} x_{1i} & x_{2i} & \cdots & x_{ki} \ \end{bmatrix}X k ×n =⎣⎢⎢⎢⎢⎢⎡1 x 1 1 x 2 1 ⋮x k 1 1 x 1 2 x 2 2 ⋮x k 2 ⋯⋯⋯⋱⋯1 x 1 n x 2 n ⋮x k n ⎦⎥⎥⎥⎥⎥⎤;X i (k ×1 )=⎣⎢⎢⎢⎡x 1 i x 2 i ⋮x k i ⎦⎥⎥⎥⎤;X i (1 ×k )′=[x 1 i x 2 i ⋯x k i ]
二、参考资料
Original: https://blog.csdn.net/qq_26430933/article/details/122637092
Author: qq_26430933
Title: GMM广义矩估计
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/663307/
转载文章受原作者版权保护。转载请注明原作者出处!