Guoxin
  • 首页
  • 归档
  • 分类
  • 标签
  • 关于

2023-3-A-Review-of-Adversarial-Attacks-in-Computer-Vision

基于转换的攻击,本综述系列的第三部分。看的迷迷糊糊的,主要是很多都不懂,先大致了解,以后用到了再补。 1 添加动量到迭代中 为了提高对抗样本的迁移能力,提出将基于优化的攻击与多种手段相结合。 1.1 MI-FGSM 在迭代过程中添加动量,比如 MI-FGSM攻击。动量法可以更快的收敛和更少的震荡。MI-FGSM算法可以被写出如下形式: image-202312221425002
2023-12-22
论文读后总结 > 对抗样本 > 综述系列
#论文读后总结 #对抗样本 #综述系列

2023-2-A-Review-of-Adversarial-Attacks-in-Computer-Vision

这次是承接上次的文章,是第二部分,主要总结黑盒攻击部分。 0 黑盒攻击介绍 实际情况下,攻击者不可能知道模型的结构、参数等。所以黑盒攻击才是更贴合实际的场景。 1 PBAAML(迁移攻击) 攻击者在本地训练一个替代模型,它和目标模型执行可以执行一样的任务。那么针对本地的对抗样本也可以攻击目标模型。训练替代模型以接近目标模型是具有挑战性的。首先不知道原始模型的结构,其次查询次数应该是被限制的
2023-12-21
论文读后总结 > 对抗样本 > 综述系列
#论文读后总结 #对抗样本 #综述系列

2023-1-A Review of Adversarial Attacks in Computer Vision

A Review of Adversarial Attacks in Computer Vision 综述一般都比较长,打算分几次来写,这部分打算写白盒攻击场景下的攻击方法。 文章第一个是主要参考文献的发表日期,第二部分表示本次文章是针对本次综述的第几部分。比如这里就是表示2023年的文章,本文是本系列的第一部分。 这篇文章系列以A Review of Adversarial Attacks
2023-12-20
论文读后总结 > 对抗样本 > 综述系列
#论文读后总结 #对抗样本 #综述系列

Attenion is all you need

0 摘要 主流的序列转导模型是基于循环或者卷积神经网络,基本上是一个编码器和解码器。表现比较好的就是使用了注意力来连接编码器和解码器。并且,我们提出了一个新的架构叫做transformer,它完全基于注意力机制,省去了卷积和循环。 1 介绍 循环神经网络已经被认为是序列模型转换问题的最佳解决办法,因此许多努力都在推动编码器-解码器的发展。 循环神经网络最大的限制就是没办法进行并行计算,这很
2023-12-17
论文读后总结 > 经典模型系列
#论文读后总结 #经典模型系列

使用自编码器进行图片检索

1 自编码器简介 自编码器最初提出的目的是为了学习到数据的主要规律,进行数据压缩,或特征提取,是一类无监督学习的算法。后续各种改进的算法,使得自编码器具有生成能力,例如变分自编码器(VAE)的图像生成能力。 本次放的代码都是线性版本,在我的仓库中还有cnn版本,毕竟线性版本只能处理一下这种mnist小数据集。地址:https://github.com/Guoxn1/ai。 2 线性自编码器
2023-12-08
计算机视觉 > 生成模型
#计算机视觉 #transformer #生成模型 #cvae #KL散度

现代循环神经网络

1 简介 循环神经网络被广泛运用于自然语言处理,但是他们都各有各的优缺点。 2 rnn 循环神经网络,鼻祖。 RNN是最基本的循环神经网络形式,它通过将当前的输入与上一个时间步的隐藏状态相结合,来产生输出和更新隐藏状态。然而,传统的RNN存在梯度消失和梯度爆炸等问题,导致长期依赖关系难以捕捉。 产生梯度消失和爆炸主要是由于序列共用隐藏层,反向传播导致出现连乘,且激活函数在偏离原点时取值较
2023-12-04
自然语言处理 > 循环神经网络
#自然语言处理 #循环神经网络

Deep Residual Learning for Image Recognition

题目:用于图像识别的深度残差学习 0 摘要 上来先提出问题:更深的神经网络更难训练,所以作者提出了本文要介绍的残差网络,来解决这个事情。这样的模型不仅更深而且复杂度更低,取得了非常不错的效果。 1 介绍 开头先说明深度卷积神经网络的贡献,深度是能进行很好分类的关键。提出第一个问题,梯度消失和梯度爆炸,这个问题已经被初始归一化和中间层归一化极大缓解;提出第二个问题,随着网络深度的增加,准确率
2023-12-02
论文读后总结 > 经典模型系列
#论文读后总结 #经典模型系列

ImageNet Classification with Deep Convolutional Neural Networks

题目:使用深度卷积神经网络对ImageNet进行分类 0 摘要 作者训练了一个大型深度卷积神经网络来对ImageNet进行分类,效果比之前所有的效果都好。它包含5个卷积层,中间还有池化层,最后三个全连接层(softmax),输出1000类的分类结果。为了训练更快,使用了非饱和神经元(其实是非饱和激活函数,也就是relu)和一个性能很好的gpu(现在已经不太行,当时确实不错)。为了减少全连接层的
2023-12-01
论文读后总结 > 经典模型系列
#论文读后总结 #经典模型系列

alexnet进行花朵分类

1 对花数据集进行分类 原址:https://gitlab.diantouedu.cn/QY/test1/tree/master。 本文代码:https://github.com/Guoxn1/ai。 数据集需要自行从原址处下载。 image-20231129092517757 大致如下,一共分为训练集和测试集,一共五种花。本文使用自构建的alexnet和pretrained
2023-11-29
计算机视觉 > 卷积神经网络
#计算机视觉 #卷积神经网络

神经网络经典问题

1 简介 这里介绍一些在初学过程中可能碰到的一些常见的经典问题,其实还是蛮有意思的,就当成一种经验的积累。 这篇博客应该会一直更新,但是可能最后会很大,可能会分好几个,或者是分类一下。 2 预训练阶段 2.1 神经网络参数的初始化方式有哪些,为什么不能把w都初始化成一个值? 其实不同的初始化方式,就是来把w初始化成不同的随机值。首先说一下为什么不能把w初始成同一个值,尤其是0。如果全为
2023-11-28
深度学习基础 > 经典问题
#神经网络 #经典问题
1234

搜索

Hexo Fluid