Skip to content

Estadística bayesiana

Introducción

La estadística bayesiana es un paradigma completo de inferencia basado en la teoría de la decisión y por lo tanto se basa en los conceptos de probabilidad.

A diferencia del enfoque frecuentista, la estadística bayesiana se basa en el enfoque de probabilidad subjetiva. Dicha probabilidad subjetiva es una medida o grado de creencia de qué tan verosímil sea un evento.

Por ejemplo, si le preguntáramos a cada persona sobre la probabilidad de que llueva \(\theta\), cada una nos responderá según su creencia o nivel de conocimiento sobre \(\theta\). Todo ese conocimiento podría resumirse en una función de distribución que llamaremos distribución a priori, denotada \(f_\Theta(\theta)\) o \(p(\theta)\).

Esta información a priori se combina con la información de los datos o verosimilitud, denotada como \(f_{X| \Theta}(x|\theta)\) o \(L(\theta|x)\) con el fin de obtener la distribución a posteriori, denotada como \(f_{\Theta|X}(\theta|x)\) o \(p(\theta|x)\) usando la regla de Bayes.

\( p(\theta|x)=\frac{p(\theta,x)}{p(x)}=\frac{L(\theta|x)p(\theta)}{p(x)} \)

Verosimilitud bajo muestreo aleatorio

Sea \(X_1,X_2,\dots, X_n \sim f(X_i|\theta)\) una muestra aleatoria.

Entonces la función de verosimilitud \(L(\theta|\mathbf{x})\) se puede representar como:

\[L(\theta|\mathbf{x}) = \prod_{i=1}^{n}f(X_i|\theta)\]

Note que en este caso, es una función que depende del parámetro ya que los datos ya fueron observados.

Distribución a posteriori

La distribución a posteriori puede escribirse como:

\[p(\theta|\mathbf{x})\propto L(\theta|\mathbf{x})p(\theta) = p(\theta|\mathbf{x})p(\theta)\]

Note que \(p(x)\) es una densidad que no depende de \(\theta\) (es considerada una “constante”), por lo cual en estadística bayesiana se utiliza el símbolo \(\propto\) para denotar que la distribución a posteriori es proporcional a \(L(\theta|\mathbf{x})p(\theta)\).

El siguiente ejemplo ilustra una forma de obtener la distribución a posteriori.

Lanzamiento de una moneda 1

Suponga que se tiene una moneda y se realizan 10 lanzamientos. Sea \(\theta\) la probabilidad de que caiga águila, mientras que \(1-\theta\) es la probabilidad de que caiga sol. No se tiene información acerca del comportamiento de la moneda, pero se sospecha es una moneda honesta. Supóngase que se han observado 7 águilas.

Debido a que no se tiene información sobre \(\theta\), se pude asumir una función de distribución uniforme en el intervalo [0,1], esto es: \(p(\theta)=I_{(0,1)}(\theta)\).

Note que los datos pueden ser modelados mediante la verosimilitud, es decir \(p(\mathbf{x}|\theta)=L(\theta|\mathbf{x})=\prod_{i=1}^{n}\theta^{x_i}\left(1-\theta\right)^{1-x_i}=\theta^{\sum_{i=1}^{n}x_i}\left(1-\theta\right)^{n-\sum_{i=1}^{n}x_i}\).

Sustituyendo

\(p(\theta|x)\propto \theta^{7}\left(1-\theta\right)^{3}I_{(0,1)}(\theta)\)

Note que como tal, no es una función de densidad, debido a que la integral no es 1, sin embargo, es proporcional a una función de densidad beta con parámetros 8 y 4.

Por lo tanto, la distribución a posteriori es \(p(\theta|x)=\frac{\theta^{8-1} \left(1-\theta\right)^{4-1}}{B(8,4)}I_{(0,1)}(\theta)\).

Densidad conjugada

Se dice que \(p(\theta)\) es conjugada con \(L(\theta|x)\) si \(p(\theta|x)\) es de la misma familia que \(p(\theta)\).

En el ejemplo anterior se pudo observar que la distribución Beta(1,1) es conjugada con la verosimilitud Bernoulli.

Teoría Bayesiana

Intervalos

Factor de Bayes

Modelo Normal

Una de las distribuciones más utilizadas en estadística es la normal, debido a que no solo muchos fenómenos tiene un comportamiento similar, sino por que los promedios tienden a una distribución normal.

En esta sección se usará esta distribución para hacer inferencia sobre los parámetros de interés usando estadística Bayesiana.

Inferencia sobre la media (Modelo Normal - Normal)

Debido a que la distribución Normal es ampliamente utilizada en estadística, se ilustrarán algunas de propiedades de la distribución a posteriori de la media \(\mu\).

El siguiente ejemplo ilustra cómo obtener la distribución posterior de la media \(\mu\) asumiendo varianza conocida y distribución a priori para la media una distribución normal.

Derivación de la distribución posterior para la media

Suponga que se tiene una muestra aleatoria \(X_1,X_2,\dots, X_n \sim N(\mu,\sigma^2)\) con \(\sigma^2\) conocida. Se propone utilizar una distribución a priori normal para \(\mu\), es decir \(\mu \sim N(\mu_0,\sigma_0^2)\), donde \(\mu_0\) y \(\sigma_0^2\) son conocidos.

La distribución a posteriori puede encontrarse de la siguiente manera:

\[p(\mu|\mathbf{x}) \propto L(\mu|\mathbf{x})p(\mu)\]

Note que la verosimilitud puede expresarse como:

\[ \begin{align*} L(\mu|\mathbf{x}) &= \prod_{i=1}^{n}\left(\frac{1}{2 \pi \sigma^2}\right)^{\frac{1}{2}}e^{\frac{1}{2\sigma^2}(x_i-\mu)^2}\\ &=\left(\frac{1}{2 \pi \sigma^2}\right)^{\frac{n}{2}}e^{\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\mu)^2}\\ &\propto e^{\frac{1}{2\sigma^2}\sum_{i=1}^{n}(x_i-\mu)^2} \end{align*} \]

Usando la suma de cuadrados \(\sum_{i=1}^{n}(X_i-\mu)^2 =n(\bar{X}-\mu)^2 + \sum_{i=1}^{n}(X_i-\bar{X})^2\), se propone usar \(L(\mu|\mathbf{x}) \propto e^{-\frac{n}{2\sigma^2}(\mu-\bar{x})^2}\) ya que la exponencial es una función simétrica.

Al usar \(p(\mu) \propto e^{-\frac{1}{2\sigma_0^2}(\mu-\mu_0)^2}\), por lo tanto la distribución a posteriori es:

\[ \begin{align*} p(\mu|\mathbf{x}) &\propto e^{-\frac{n}{2 \sigma^2}(\mu-\bar{x})^2} e^{-\frac{1}{2 \sigma_0^2}(\mu-\mu_0)^2}\\ &\propto e^{-\frac{1}{2}\left(\frac{n}{\sigma^2}\left(\mu^2-2\mu \bar{x}+\bar{x}^2\right)+\frac{1}{ \sigma_0^2}\left(\mu^2-2\mu \mu_0 +\mu_0^2\right)\right)}\\ &\propto e^{-\frac{1}{2}\left(\frac{n}{\sigma^2}\left(\mu^2-2\mu \bar{x}\right)+\frac{1}{ \sigma_0^2}\left(\mu^2-2\mu \mu_0\right)\right)}\\ &\propto e^{-\frac{1}{2}\left(\mu^2\left(\frac{n}{\sigma^2}+\frac{1}{\sigma_0^2}\right)-2\mu \left(\frac{n \bar{x}}{\sigma^2} + \frac{\mu_0}{\sigma_0^2} \right)\right)}\\ &\propto e^{-\frac{1}{2 V}(\mu-M)^2} \end{align*} \]

Por lo que se concluye que \(\mu|\mathbf{x} \sim N \left(M,V \right)\), donde \(V = \frac{n}{\sigma^2}+\frac{1}{\sigma_0^2}\) y \(M = \frac{\frac{n }{\sigma^2}\bar{x}+\frac{1}{\sigma_0^2}\mu_0}{V}\).

Del ejemplo anterior, se puede deducir el siguiente teorema:

Distribución normal posterior

Sea \(X_1,X_2,\dots, X_n \sim N(\mu,\sigma^2)\) una muestra aleatoria con \(\sigma^2\) conocida y \(\mu \sim N(\mu_0,\sigma_0^2)\). Entonces se cumplen las siguientes propiedades.

  • \(\mu|\mathbf{x} \sim N \left(M,V \right)\), donde \(V = \frac{n}{\sigma^2}+\frac{1}{\sigma_0^2}\) y \(M = \frac{\frac{n }{\sigma^2}\bar{x}+\frac{1}{\sigma_0^2}\mu_0}{V}\).
  • La distribución a posteriori es conjugada.
  • \(E(\mu|\mathbf{x}) = p_1\bar{x} + p_2\mu_0\) es un promedio ponderado de la media a priori y el estimador de máxima verosimilitud, cuyos pesos son proporcionales a la suma del inverso de las varianzas.
  • Cuando \(n \to \infty\) la media a posteriori coincide con el estimador de máxima verosimilitud.
  • Si \(p(\mu) \propto 1\), entonces \(p(\mu|\mathbf{x}) = N\left(\bar{x},\frac{\sigma^2}{n}\right)\) coincide con el resultado frecuentista que asume varianza conocida.

Esta propiedad será usada posteriormente para obtener de manera fácil distibuciones posteriores, por ejemplo en un modelo lineal.

Finalmente es de interés encontrar la distribución predictiva a posteriori para este modelo.

\[p(X_{n+1}|x_1,\dots,x_n) = N\left(\bar{x},\left(1+\frac{1}{n}\right)\sigma^2\right)\]

El siguiente ejemplo muestra detalles para hallar dicha distribución.

Derivación de la distribución predictiva

Asumiendo que \(X_{n+1}\) tambien proviene de la misma población, se tiene que

\[ \begin{align*} p(X_{n+1} |\mathbf{x}) &\propto \int_{-\infty}^{\infty} p(x_{n+1}|\mu) p(\mu|\mathbf{x}) d \mu\\ &\propto \int_{-\infty}^{\infty} e^{\frac{-1}{2\sigma^2}\left(n(\mu-\bar{x})^2+(x_{n+1}-\mu)^2\right)}d\mu \end{align*} \]

Note que \(Q(\mu)=n(\mu-\bar{x})^2+(x_{n+1}-\mu)=(n+1)(\mu-\bar{x}_{n+1})^2+\frac{n}{n+1}(x_{n+1}-\bar{x})^2\), donde \(\bar{x}_{n+1}=\frac{n\bar{x}+x_{n+1}}{n+1}\), por lo que:

\[ \begin{align*} p(x_{n+1} |\mathbf{x}) & \propto e^{\frac{-1}{2\sigma^2}\left(\frac{n}{n+1}(x_{n+1}-\bar{x})^2\right)} \int_{-\infty}^{\infty} e^{\frac{-1}{2\sigma^2}\left((n+1)(\mu-\bar{x}_{n+1})^2\right)}d\mu\\ &\propto e^{\frac{-n}{2(n+1)\sigma^2}\left(x_{n+1}-\bar{x}\right)^2} \end{align*} \]

Por lo tanto \(X_{n+1}|\mathbf{x} \sim N\left(\bar{x},(1+\frac{1}{n})\sigma^{2}\right)\).

Reparametrización de la varianza

Algunos autores, por ejemplo Hoff (2009), recomiendan reparametrizar la distribución normal usando la precisión que es la inversa de la varianza.

La ventaja de esta reparametrización es que es más fácil hacer cálculos con la precisión que con la varianza, ya que se evitan hacer suma de fracciones. Sin embargo las conclusiones son las mismas.

En la siguiente sección se hará uso de la precisión para facilitar los cálculos.

Inferencia sobre la media y varianza (Modelo Normal - Gamma)

En la sección anterior se hizo inferencia únicamente sobre la media \(\mu\), asumiendo la varianza \(\sigma^2\) conocida. Ahora se considerará inferencia sobre ambos parámetros, es decir \(\theta = (\mu, \sigma^2)´\).

El objetivo será encontrar la distribución a posteriori de \(\theta\) dados los datos \(\mathbf{x}\), es decir:

\[p(\theta|\mathbf{x}) \propto L(\theta|\mathbf{x})p(\theta)\]

Se puede proponer una densidad a priori conjunta, la cual sea producto de una condicional y una marginal.

\[p(\mu,\sigma^2) = p(\mu|\sigma^2)p(\sigma^2)\]

o en términos de precisión \(\tau=\frac{1}{\sigma^2}\):

\[p(\mu,\tau) = p(\mu|\tau)p(\tau)\]

La distribución a priori propuesta es la siguiente:

Distribución Normal-Gama

Se dice que la densidad conjunta \(p(\mu,\tau)\) es Normal-Gama(m,c,a,b) si:

  • \(p(\tau) = Ga(a,b)\), donde \(a\) es el parámetro de forma y \(b\) es parámetro de tasa (inverso de la escala).
  • \(p(\mu|\tau) = N\left(m,\frac{1}{c\tau}\right)\) donde \(m\) es la media a priori y la varianza es \(\sigma^2=\frac{1}{c\tau}\).
  • \(p(\mu,\tau) \propto \tau ^{a-\frac{1}{2}-1}e^{-\frac{\tau}{2}(c(\mu-m)^2+2b)}\)

Usando la varianza

Se puede usar la varianza, sin embargo la distribución a priori sería la Normal-Inversa Gama y los resultados serían similares a los anteriores.

Si \(\tau = \frac{1}{\sigma^2} \sim Ga(a,b)\), entonces \(p(\sigma^2) \sim IGa(a,b)\), es decir Inversa-Gama. Se puede encontrar más información de esta densidad en este link.

Se puede mostrar que la distribución a posteriori tiene la siguiente forma:

\[p(\mu,\tau|\mathbf{x}) \propto \tau ^ {\frac{n}{2}+a+\frac{1}{2}-1}e^{-\frac{\tau}{2}((n-1)S^2 + 2b + (n+c)(\mu-m_n)^2+\frac{nc}{n+c}(\bar{X}-m)^2)}\]

donde \(m_n = \frac{n\bar{x}+cm}{n+c}\). Esta densidad no tiene forma conocida. Sin embargo comunmente es de interés conocer la distibución condicional posterior de \(\mu\) dada la precisión \(\tau\) y los datos.

Inferencia en el modelo Normal-Gama

Sea \(X_1,X_2,\dots, X_n \sim N(\mu,\sigma^2)\) una muestra aleatoria con \(\tau = \frac{1}{\sigma^2}\) y \(p(\mu,\tau) = NG(m,c,a,b)\). Entonces se cumplen las siguientes propiedades.

  • \(\mu|\tau,\mathbf{x} \sim N\left(m_n,\frac{1}{\tau (n+c)}\right)\) con \(m_n = \frac{n\bar{x}+cm}{n+c}\).
  • \(\tau|\mathbf{x} \sim Ga\left(\frac{n-1}{2},\frac{n-1}{2}S^2\right)\) o equivalentemente \(\sigma^2|\mathbf{x} \sim iGa\left(\frac{n-1}{2},\frac{n-1}{2}S^2\right)\) con \(S^2 = \frac{1}{n-1}\sum_{i=1}^{n}(X_i-\bar{X})^2\).
  • \(\mu|\mathbf{x} \sim t_{n-1}\left(\bar{x},\frac{S^2}{n}\right)\) o equivalentemente \(\frac{\sqrt{n}(\mu-\bar{x})}{S}|\mathbf{x} \sim t_{n-1}\).
  • \(X_{n+1}|\mathbf{x} \sim t_{n-1}\left(\bar{x},(1+\frac{1}{n})S^2\right)\) o equivalentemente \(\frac{(X_{n+1}-\bar{x})}{\sqrt{(1+\frac{1}{n})S^2}}|\mathbf{x} \sim t_{n-1}\).

No es difícil mostrar que:

\[p(\mu|\tau,\mathbf{x}) \propto e^{-\frac{\tau}{2}(n+c)(\mu-m_n)^2}\]

por lo que \(\mu|\tau,\mathbf{x} \sim N\left(m_n,\frac{1}{\tau (n+c)}\right)\) o equivalentemente \(\mu|\sigma^2,\mathbf{x} \sim N(m_n,\sigma^2 (n+c))\).

Sin embargo obtener las otras distribuciones requiere algunos conocimiento de cálculo integral.

Modelo Lineal Normal

En esta sección se abordará uno de los modelos más utilizados en estadística. Este modelo, aunque es muy simple, es una poderosa herramienta que permite analizar la asociación lineal entre dos variables. Esta idea puede generalizarse aún más para crear modelos más complejos.

Modelo de regresión lineal simple

Primero se estudiará el modelo lineal simple, el cual servirá como punto de partida para otros modelos posteriores.

Suponga que se tienen 2 variables aleatorias \(Y\) y \(X\), donde \(Y\) es la variable de interés y \(X\) una variable que explica el comportamiento de la otra. Si se tiene una muestra aleatoria bivariada de tamaño \(n\), es decir \((X_1,Y_1), (X_2,Y_2), \dots , (X_n,Y_n)\) entonces el modelo puede representarse de la siguiente manera:

\[ y_i = \beta_0 + \beta_1 x_i + e_i\;i=1,2,\dots,n \]

donde \(\beta_0\) (ordenada al origen) y \(\beta_1\) (pendiente) son parámetros de interés desconocidos y \(e_i\) es una variable alatoria que se asume \(e_i \sim N(0,\sigma^2)\).

Este modelo trata de modelar la esperanza condicional de \(Y_i\) dados los demás parámetros y variables aleatorias, es decir \(E(Y_i|x_i,\beta_0,\beta_1,\sigma^2) = \mu_i = \beta_0 + \beta_1 x_i = \mathtt{x}\mathbf{\beta}\), donde \(\mathtt{x}\) es la matriz diseño y \(\mathbf{\beta} = (\beta_0,\beta_1)'\).

Note que la función de verosimilitud puede representarse como:

\[L(\mathbf{\beta},\sigma^2|\mathbf{x},\mathbf{y})\propto \left(\frac{1}{\sigma^2}\right)^{\frac{n}{2}}e^{-\frac{1}{2\sigma^2}\left( \sum_{i=1}^n y_i-\mathtt{x}_i\mathbf{\beta} \right)^2}\]

Para hacer inferencia sobre los parámetros, se puede suponer distribuciones a priori sobre los parámetros de interés, en este caso se usarán las distribuciones a priori similares a las utilizadas en el modelo normal-gamma, esto es:

\[ p(\theta) \propto p(\sigma^2)p(\mathbf{\beta}) \]

donde \(p(\mathbf{\beta}) \sim N(\mathbf{m},\mathbf{U})\) y \(p(\sigma^2)\sim InvGa(a/2,ab/2)\) o equivalentemente \(p(1/\sigma^2) \sim Ga(a/2,ab/2)\).

Debido a que estamos interesados en la distribución a posteriori marginal de los parámetros, se puede obtener de manera sencilla dichas distribuciones de la siguiente manera.

Distribución marginal posterior de las betas

Se puede demostrar que la distribución posterior marginal tiene la siguiente forma

\[ \begin{align*} p(\beta|\sigma^2,\mathbf{x},\mathbf{y}) &\propto e^{-\frac{1}{2}(\mathbf{y}-\mathtt{x}\beta)^t\Sigma^{-1}(\mathbf{y}-\mathtt{x}\beta)} \times e^{-\frac{1}{2}(\beta-\mathbf{m})^t\mathbf{U}^{-1}(\beta-\mathbf{m})}\\ &=e^{-\frac{1}{2}(\mathbf{y}^t\Sigma^{-1}\mathbf{y}-\mathbf{y}^t\Sigma^{-1}\mathtt{x}\beta-(\mathtt{x}\beta)^t\Sigma^{-1}\mathbf{y}+(\mathtt{x}\beta)^t\Sigma^{-1}\mathtt{x}\beta + \beta^t\mathbf{U}^{-1}\beta-\mathbf{\beta}^t\mathbf{U}^{-1}\mathbf{m} -\mathbf{m}^t\mathbf{U}^{-1}\mathbf{\beta}+(\mathbf{m})^t\mathbf{U}^{-1}\mathbf{m})}\\ &\propto e^{-\frac{1}{2}(\beta^t\mathtt{x}^t\Sigma^{-1}\mathtt{x}\beta -2\beta^t\mathtt{x}^t\Sigma^{-1}\mathbf{y} + \beta^t\mathbf{U}^{-1}\beta -2\mathbf{\beta}^t\mathbf{U}^{-1}\mathbf{m})}\\ &= e^{-\frac{1}{2}(\beta^t(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})\beta -2\beta^t(\mathtt{x}^t\Sigma^{-1}\mathbf{y}+\mathbf{U}^{-1}\mathbf{m})) } \end{align*} \]

Se puede completar el cuadrado si se agrega al segundo término \((\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})^{-1}\) y se define \(\mathbf{b}=(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})^{-1}(\mathtt{x}^t\Sigma^{-1}\mathbf{y}+\mathbf{U}^{-1}\mathbf{m})\), por lo que

\[ \begin{align*} p(\beta|\sigma^2,\mathbf{x},\mathbf{y}) &\propto e^{-\frac{1}{2}(\beta^t(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})\beta -2(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})\mathbf{b}) }\\ & \propto e^{-\frac{1}{2}(\beta^t(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})\beta -2(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})\mathbf{b} + \mathbf{b}^t(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})\mathbf{b} )} \\ & \propto e^{-\frac{1}{2}((\beta-\mathbf{b})^t(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})(\beta-\mathbf{b}))} \end{align*} \]

Por lo que se reconoce una distribución Normal multivariada, con vector de medias \(\mathbf{b}=(\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})^{-1}(\mathtt{x}^t\Sigma^{-1}\mathbf{y}+\mathbf{U}^{-1}\mathbf{m})\) y matriz de covarianzas \(\mathbf{V} = (\mathtt{x}^t\Sigma^{-1}\mathtt{x}+\mathbf{U}^{-1})^{-1}\).

Note que si \(\Sigma = \sigma^2 I\), entonces \(\beta|\sigma^2,\mathbf{x},\mathbf{y} \sim N(\mathbf{b},\mathbf{V})\), con \(\mathbf{V} = (\frac{1}{\sigma^2}\mathtt{x}^t\mathtt{x}+\mathbf{U}^{-1})^{-1}\) y \(\mathbf{b}=\mathbf{V}(\frac{1}{\sigma^2}\mathtt{x}^t\mathbf{y}+\mathbf{U}^{-1}\mathbf{m})\).

Distribución marginal posterior de la varianza

Para facilitar los cálculos, sea \(\tau = \frac{1}{\sigma^2}\), puede mostrarse que la distribución a posteiori marginal para \(\tau\) está dada por:

\[ \begin{align*} p(\tau|\beta,\mathbf{x},\mathbf{y}) &\propto (\tau)^{\frac{n}{2}} e^{-\frac{\tau}{2}(\mathbf{y}-\mathtt{x}\beta)^t(\mathbf{y}-\mathtt{x}\beta)} \times \tau^{\frac{a}{2}-1}e^{-\frac{ab}{2}\tau}\\ &\propto \tau^{\frac{n+a}{2}-1}e^{-\frac{\tau}{2}((\mathbf{y}-\mathtt{x}\beta)^t(\mathbf{y}-\mathtt{x}\beta)+ab)} \end{align*} \]

Por lo tanto \(\frac{1}{\sigma^2}|\beta,\mathbf{x},\mathbf{y} \sim Ga\left(\frac{n+a}{2},\frac{SCE+ab}{2}\right)\), donde \(SCE = \sum_{i=1}^n(y_i-\mathtt{x}_i\beta)^2\) o equivalentemente \(\sigma^2|\beta,\mathbf{x},\mathbf{y} \sim InvGa\left(\frac{n+a}{2},\frac{SCE+ab}{2}\right)\).

Se pueden resumir los resultados obtenidos de la siguiente manera:

Inferencia en el modelo de regresión lineal simple

Sea \((X_1,Y_1), (X_2,Y_2), \dots , (X_n,Y_n)\) una muestra aleatoria bivariada de tamaño \(n\), donde \(Y_i = \beta_0 + \beta_1 X_i + e_i,\, e_i \sim N(0,\sigma^2)\) y \(p(\theta) \propto p(\sigma^2)p(\mathbf{\beta})\). Entonces se cumplen las siguientes propiedades.

  • \(\beta|\sigma^2,\mathbf{x},\mathbf{y} \sim N(\mathbf{b},\mathbf{V})\) con \(\mathbf{V} = (\frac{1}{\sigma^2}\mathtt{x}^t\mathtt{x}+\mathbf{U}^{-1})^{-1}\) y \(\mathbf{b}=\mathbf{V}(\frac{1}{\sigma^2}\mathtt{x}^t\mathbf{y}+\mathbf{U}^{-1}\mathbf{m})\).

  • \(\sigma^2|\beta,\mathbf{x},\mathbf{y} \sim InvGa\left(\frac{n+a}{2},\frac{SCE+ab}{2}\right)\) con \(SCE = \sum_{i=1}^n(y_i-\mathtt{x}_i\beta)^2\).

  • Si \(p(\theta) \propto \sigma^2\) entonces \(\beta|\sigma^2,\mathbf{x},\mathbf{y} \sim N(\hat{\beta},\sigma^2(\mathtt{x}^t\mathtt{x})^{-1})\) y \(\sigma|\mathbf{x},\mathbf{y} \sim InvGa(\frac{n-2}{2},\frac{SCE}{2})\), es decir, el resultado coincide con los estimadores de mínimos cuadrados ordinarios.

Análisis de Referencia

Métodos numéricos

Métodos MCMC

Metropolis - Hastings

Muestreo de Gibss

Referencias

Hoff, Peter. 2009. A First Course in Bayesian Statistical Methods. New York: Springer.

Muchas de las ideas fueron tomadas del curso Análisis Bayesiano impartido por el Dr. Sergio Pérez en el cuatrimestre Verano de 2022 en el Colegio de Postgraduados, Campus Montecillo.