📚旁证博引

点扩展函数 随机梯度下降 衍射光学 光学神经网络 光学传递函数 微镜

角度敏感像素 弗罗贝尼乌斯范数 光学计算

🎯要点

🎯衍射光学卷积算法模拟 | 🎯模拟或数字电子计算之前加入一层光学计算 | 🎯前馈卷积神经网络计算成像系统对输入图像进行分类 | 🎯相位掩模利用线性空间不变成像系统执行固有卷积

光学和散射用例

🍪语言内容分比

pie title 语言分比
 "Python":90
 "TensorFlow":80
 "C++":20

pie title 内容分比
"算法":90
"数学":60
"光学计算":50
"傅里叶":30
"图像分类":20
"模拟":40
"相位掩膜重构":20
"点扩散优化":20
"光学神经网络":20
"光电卷积核":20
"物理硬件雏形":10

✂️梗概

🍇Python随机梯度下降算法

成本函数或损失函数是通过改变决策变量来最小化(或最大化)的函数。许多机器学习方法都在解决表面下的优化问题。它们倾向于通过调整模型参数(如神经网络的权重和偏差、随机森林或梯度提升的决策规则等)来最小化实际输出和预测输出之间的差异。

在回归问题中,通常具有输入变量 $x =\left(x_1, \ldots, x_r\right)$ 的向量和实际输出 $y$。您想要找到一个将 $x$ 映射到预测响应 $f( x )$ 的模型,以便 $f( x )$ 尽可能接近 $y$。例如,您可能想要根据某人在公司工作的年数或教育水平等输入来预测某人的工资等输出。

您的目标是最小化预测 $f( x )$与实际数据 $y$ 之间的差异。这种差异称为残差。在此类问题中,您希望最小化残差平方和,其残差平方和 $=\Sigma_{ i }\left(y_{ i }-f\left( x _{ i }\right)\right )^2$ 对于所有观测值 $i=1, \ldots, n$,其中 $n$ 是观测值总数。或者,您可以使用均方误差 ($MSE =\operatorname{SSR} / n$) 代替残差平方和。

最小化残差平方和和均方误差都使用实际输出和预测输出之差的平方。差异越小,预测越准确。差异为零表示预测与实际数据相同。

通过调整模型参数来最小化残差平方和或均方误差。例如,在线性回归中,你想要找到函数 $f( x )=b_0+b_1 x_1+\cdots+b_{ r } x_{ r }$,因此你需要确定权重 $b_0, b_1, \ldots , b_{ r }$ 最小化残差平方和或均方误差。

在分类问题中,输出 $y$ 是分类的,通常为 0 或 1 。例如,您可能尝试预测电子邮件是否是垃圾邮件。在二进制输出的情况下,可以方便地最小化交叉熵函数,该函数也取决于实际输出 $y_{ i }$ 和相应的预测 $p\left( x _{ i }\right)$ :

$$ H=-\sum_i\left(y_i \log \left(p\left( x _i\right)\right)+\left(1-y_i\right) \log \left(1-p\left( x _i\right)\right)\right) $$

在常用于解决分类问题的逻辑回归中,函数 $p( x )$ 和 $f( x )$ 定义如下:

$$ \begin{gathered} p( x )=\frac{1}{1+\exp (-f( x ))} \\ f( x )=b_0+b_1 x_1+\cdots+b_r x_r \end{gathered} $$