Skip to content

Commit

Permalink
Browse files Browse the repository at this point in the history
  • Loading branch information
szcf-weiya committed Nov 30, 2023
1 parent 939813a commit 4463822
Showing 1 changed file with 3 additions and 3 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -4,7 +4,7 @@
| ---- | ---------------------------------------- |
| 翻译 | szcf-weiya |
| 发布 | 2017-03-09 |
| 更新 | 2019-10-24 18:09:35|
| 更新 | {{ git_revision_date }} |
| 状态 | Done|


Expand All @@ -30,12 +30,12 @@ $$

- 优化关于所有参数的平方和
$$
\underset{\{\lambda_j,\xi_j,\beta_j\}_1^M}{\min}\sum\limits_{i=1}^M\left(y_i-\beta_0-\sum\limits_{j=1}^M\beta_j\exp\left\{-\frac{(x_i-\xi_j)^T(x_i-\xi_j)}{\lambda_j^2}\right\}\right)^2\tag{6.29}
\underset{\{\lambda_j,\xi_j,\beta_j\}_1^M}{\min}\sum\limits_{i=1}^N\left(y_i-\beta_0-\sum\limits_{j=1}^M\beta_j\exp\left\{-\frac{(x_i-\xi_j)^T(x_i-\xi_j)}{\lambda_j^2}\right\}\right)^2\tag{6.29}
$$

​这个模型一般称为 RBF 网络,这是 S 型神经网络的替代选择,将在 [第 11 章](../11-Neural-Networks/11.1-Introduction/index.html) 讨论;$\xi_j$ 和 $\lambda_j$ 在参数中有重要作用.这个准则是有着多重局部最小点的非凸函数,并且优化的算法类似神经网络中的算法.

- 分开估计 $\\{\lambda_j,\xi_j\\}$ 和 $\beta_j$.给定前者,后者的估计是简单的最小二乘问题.通常单独用 $X$ 的分布,以非监督的方式选择核参数 $\lambda_j$ 和 $\xi_j$.其中一种方式是在给定中心 $\xi_j$ 和缩放 $\lambda_j$ 时,对训练 $x_i$ 拟合高斯混合密度模型.一种特别的方式是使用聚类方法来确定原型 $\xi_j$,并且将 $\lambda_j=\lambda$ 看成是超参数.这些方式的显然缺点是条件分布 $\Pr(Y\mid X)$ 以及 $\E(Y\mid X)$ 是不起作用的.不过它们的优点是,可以更简单地实现.
- 分开估计 $\\{\lambda_j,\xi_j\\}$ 和 $\beta_j$.给定前者,后者的估计是简单的最小二乘问题.通常单独用 $X$ 的分布,以非监督的方式选择核参数 $\lambda_j$ 和 $\xi_j$.其中一种方式是在给定中心 $\xi_j$ 和缩放 $\lambda_j$ 时,对训练 $x_i$ 拟合高斯混合密度模型.一种特别的方式是使用聚类方法来确定原型 $\xi_j$,并且将 $\lambda_j=\lambda$ 看成是超参数.这些方式的显然缺点是条件分布 $\Pr(Y\mid X)$ 以及 $\E(Y\mid X)$ 对于 where the action is concentrated 是不起作用的.不过它们的优点是,可以更简单地实现.

!!! question "weiya 注:翻译相关"
原文的 **不起作用 (having no say)** 后面用 "in where the action is concentrated" 进行了修饰,但是不太清楚 "action" 是指什么,以及修饰语想表达什么?
Expand Down

0 comments on commit 4463822

Please sign in to comment.