神经网络从感知到深入学习
扫描二维码
随时随地手机看文章
从受到人类大脑的启发,到发展出能够获得非凡成就的复杂模型, 神经网络 已经走了很长一段路。在接下来的博客中,我们将深入讨论神经网络的技术历程--从基本感知器到先进的深度学习架构,推动人工智能的创新。
人类系统
人类大脑中估计有860亿个神经元,它们彼此相邻,通过突触连接。每个神经元通过树突接收信号,然后通过SOMA处理这些信号,然后将输出的轴突向下发送到突触后神经元。这个复杂的网络是大脑如何能够处理大量信息和完成极其复杂的任务。
这是在人工智能的神经网络中复制的相同结构。相互连接的人工神经元或节点能够处理和传递信息;因此,它们构成任何机器学习模型的基本组成部分,以便从数据中学习并作出预测或决定。
神经网络在深度学习中的兴起
深层次学习是 机器学习 这涉及到使用多层的神经网络--因此是深层的神经网络--来建模数据中的复杂模式。计算能力、数据可用性和算法创新的增加促进了相对简单的神经模型向深层架构的演变。
感知器:深层次学习的基础
最简单的神经网络是 感知器 ,由弗兰克罗森布拉特在1957年提出。它被用作更复杂架构的基本模块或构建块。感知器是一种线性分类器,它映射输入,X到输出,Y的步骤如下:
1.加权和
计算输入的加权和。
z=w T X+B
当W是权重向量时,X是输入向量,B是偏置向量.
2.激活函数
对加权和应用激活函数来产生输出.
y=ϕ(z)
激活函数BU通常是二进制分类的一个步骤函数:
感知器类型
1.单层感知器
单层感知器由直接连接到输入节点的单层输出节点组成。它只能解决线性可分问题。
2. Multi-Layer Perceptron (MLP)
多层感知通过在输入和输出层之间添加一个或多个隐藏层来扩展单层感知器。每个层都包含多个神经元,激活功能可能是非线性的(例如。,乙状结肠。
多层感知器及背向传播
将隐藏层引入到mps中,可以对复杂的非线性关系进行建模。训练一个MLP涉及调整权重和偏差,以尽量减少预测输出和实际目标之间的错误。这是通过反向传播算法实现的:
1. 前方通行证: 通过图层传播输入来计算网络的输出。
2. 损失计算: 计算损失函数L(例如:,平均平方误差,交叉熵)来测量预测产出和实际产出之间的差异。
3. 后传: 使用链条规则计算损失与权重和偏差的梯度。
4. 重量更新: 通过梯度下降调整权重和偏差。
在哪里 n 是学习率。
深层次学习架构
深层次的学习产生了专门的架构,每个架构都是为具体任务量身定制的:
1.卷绕神经网络
设计为图像处理,CNN使用卷绕层从输入图像中提取空间特征。卷积的数学运算被定义为:
对于图像,以离散形式:
2.循环神经网络
适合连续数据, Rnns 维护一个从以前的时间步骤中捕获信息的隐藏状态。隐藏状态h t 更新如下:
应用和影响
深入学习模式在许多工作领域都有所不同:
1. 计算机视觉: 应用包括图像分类、目标检测和面部识别.
2. 自然语言处理(NLP) : 在语言翻译、情感分析和聊天机器人等任务上推动着变化的海洋
3. 保健: 它增加了改进疾病诊断、发现药物和提供个性化药物的可能性。
4. 财务: 改进欺诈检测、算法交易和风险评估。
结论
这种从感知到深层次学习的演变,打开了神经网络的潜在能力,在那里复杂的问题甚至无法想象,并在经济的许多部门中形成了创新的趋势。随着对研究和技术发展的高度乐观,神经网络的未来将使自己在应用中拥有更大的能力。