Gulico

  • 首页

  • 标签

  • 分类

  • 归档

  • 留言

  • 搜索

Lamport和Vector时间戳

发表于 2020-09-11 分类于 分布式 阅读次数: Valine:

主要是搜到的中文版解释都不是很能看得懂,所以搬运翻译一份Paul Krzyzanowski大佬写得简介。

(有我自己理解增加的部分,在意的朋友可以看原文)

Assigning Lamport & Vector Timestamps

Lamport Clocks

每个进程都维护一个Lamport时间戳计数器。

阅读全文 »

Fiddler for mac+安卓模拟器抓包豆瓣APP

发表于 2020-09-10 分类于 计算机网络 阅读次数: Valine:

网上好多博客都是momo+fiddler的,而且抄来抄去,很少有真的能用的。

这里记一次fiddler for mac的使用体验。

第一步:安装和设置fiddler

下载地址

  1. 点击右上角的设置图标
  2. 选择connections选项卡
  3. 勾选allow remote computer to connect
  4. 调整fiddler listens on port(随便设置,不超过65535,不与其他程序占用的端口冲突即可)
阅读全文 »

基于事件的视觉研究综述(SNN部分阅读笔记)

发表于 2020-07-27 分类于 类脑计算 阅读次数: Valine:

title: Event-based Vision: A Survey

author: Guillermo Gallego, Tobi Delbr¨uck, Garrick Orchard, Chiara Bartolozzi, Brian Taba, Andrea Censi, Stefan Leutenegger, Andrew Davison, J¨org Conradt, Kostas Daniilidis, Davide Scaramuzza

阅读全文 »

关于攻击对抗的相关工作

发表于 2020-07-20 分类于 攻击对抗 阅读次数: Valine:

当时接到这个任务非常突然,大概是在2020年1月17日左右,刚从学校回家的日子。

起初这个方向我是很感兴趣的,听起来就很有意思。

但是很可惜,经过2个月左右的探索和简单汇报,实验室老板并不希望我继续这个方向的研究,所以作罢。

知乎上有一个专栏非常适合入门,初学者可以先阅读其中攻击对抗的4-5篇文章对整个研究方向得到一个整体的把握。

阅读全文 »

信息熵、交叉熵、KL-散度、联合熵、条件熵和互信息

发表于 2020-07-20 分类于 信息论 阅读次数: Valine:

参考资料:

A Short Introduction to Entropy, Cross-Entropy and KL-Divergence

Joint, Conditional, & Mutual Information & A Case Study

联合熵(joined entropy)、条件熵(conditional entropy)、相对熵(relative entropy)、互信息(mutual information)以及相关关系整理

阅读全文 »

One Pixel Attack(学习笔记)

发表于 2020-03-06 更新于 2020-07-20 分类于 攻击对抗 阅读次数: Valine:

差分演化

具体而言,在每次迭代期间,根据当前人口(父母)生成另一组候选解决方案(子项)。 然后将孩子与相应的父母进行比较,如果他们比父母更适合(拥有更高的健身价值),则存活下来。 以这种方式,仅比较父母和他的孩子,就可以同时实现保持多样性和提高健身价值的目标。

优点

DE不使用梯度信息进行优化,因此不需要目标函数是可微的或先前已知的。 因此,与基于梯度的方法(例如,不可微,动态,噪声等)相比,它可以用于更广泛的优化问题。 使用DE生成对抗性图像具有以下主要优点:

阅读全文 »

对脉冲神经网络的攻击对抗论文的概括总结

发表于 2020-02-21 更新于 2020-07-20 分类于 攻击对抗 阅读次数: Valine:
  • 主要问题:攻击样本,即向原始样本中添加一些人眼无法察觉的噪声,这样的噪声不会影响人类的识别,但是却很容易愚弄DNN,使其作出与正确答案完全不同的判定。
    • 目前snn在对抗攻击方面的研究还比较少
  • 常用方法有基于梯度的/基于内容的
    • 在snn中又可以分为基于原始数据的/基于脉冲的
  1. 《A Comprehensive Analysis on Adversarial Robustness of Spiking Neural Networks》arXiv:1905.02704v1

    • 提出了一种简单的机制,可以根据SNN模型参数生成对抗性输入,而无需在脉冲域中进行任何额外non-trivial 的梯度计算。

    • 算法:

      1. 构建具有相同网络拓扑结构的神经网络模型ANN′,并初始化。

      2. 讲之前训练得到的$M_{SNN}$模型的权值覆盖ANN′。

      3. 干净数据集的Poisson脉冲序列生成频率编码的输入$X_{rate}$。

      4. 用$X_{rate}$输入ANN′模型生成FGSM攻击样本。

    • 总结:实际上作者提出的方法还是通过ann得到的攻击样本,没有解决snn难以获取时空梯度的问题。

  2. 《Exploring Adversarial Attack in Spiking Neural Networks with Spike-Compatible Gradient》arXiv:2001.01587v1 [cs.NE]1 Jan 2020

    • 问题:
      1. snn时空梯度难以获取
      2. 梯度不相容
      3. 梯度消失
    • 解决方法

      1. backpropagation through time (BPTT)-inspired learning algorithms 应用于SNN
      2. 梯度脉冲(G2S)转换器

        • 概率采样

          • 首先将梯度归一化为[0,1]。

          • 然后,对归一化的梯度图进行采样,以生成具有相同形状的二进制掩码,

        • 符号提取——生成一个三元梯度图

          • 三元梯度图:每个元素都位于{−1,0,1}中,在累加到二进制值为{0,1}的脉冲输入后,可以保持脉冲格式。
        • 溢出感知转换

          • 虽然上述$\delta s_{k}^{\prime \prime}$可以是三元的,但它不能保证由输入梯度累积产生的攻击样本仍然局限于{0,1}。
          • 流感知梯度变换来限制最终对抗例子的范围
      3. 梯度触发器(GT)

        • 元素选择

          • 梯度初始化,将所有元素设置为γ,它控制GT后非零梯度的数量。
          • 之前的概率抽样仍然适用于生成掩码$\delta_{mask}$。
        • 梯度构造

          • 为了保持攻击样本的脉冲格式,我们只需翻转选定区域中脉冲输入的状态。
    • 总结:目前目标是实现stdp上的黑盒攻击,最基本的stdp是无监督学习算法,理论上是没有反向传播的,也就是说不能使用基于梯度计算。那本篇文章的大方向其实没有太大参考价值。但是我认为梯度脉冲转换器和梯度触发器的设计细节上,比如概率采样/符号提取/溢出感知转换也许在stdp处理原始数据转换为脉冲的过程中可以参考。
  3. 《Adversarial Training for Probabilistic Spiking Neural Networks》arXiv:1802.08567v2 [stat.ML] 26 Feb 2018

    • 首次研究了在白盒对抗攻击下通过ML(Maximum Likelihood)训练的SNN的敏感性,并提出了一种可靠的训练机制,该机制被证明可以增强白盒攻击下SNN的性能。

    • 算法:

      • 扰动类型:消除攻击;增加攻击;翻转(Flip)攻击

      • 扰动类型的选择

        1. 找到在给定模型θ下可能性最小的类别c^LL:

        2. 选择干扰类型,使得攻击强度最大,也就是判定为目标类别$c^{LL}$的可能性最大。

    • 总结:该算法是在脉冲上加入扰动,且不是基于梯度的,如果要应用于stdp应该只需把扰动类型选择过程中计算分类概率的函数改成对应的概率就可以。虽然文章写的是白盒攻击,但是文章的最后表示可以迁移到黑盒攻击。

  4. 《SNN under Attack: are Spiking Deep Belief Networks vulnerable to Adversarial Examples? 》arXiv:1902.01147v1 [cs.LG]4 Feb 2019

    • 开发了一种黑盒攻击方法,可通过贪婪算法自动生成无法感知且强大的攻击样本,这是SNN的首创。

    • 概念:

       1. 不可感知性:确保人类不会注意到的干扰
       - 如果像素具有**较高的标准偏差**,则意味着**添加到该像素的干扰不容易被人眼察觉**。
          2. 健壮性:先前的算法只考虑目标类别概率最大,而未考虑目标类别与其他类别的概率差,即应该增加目标类别的概率与其他类别的最高概率之间的差。(间隙函数)
      
    • 算法

      • 目标:迭代使间隙函数最大化,从而使攻击更加鲁棒;同时将样本之间的距离保持在所需阈值以下,以保持不被察觉。

      • 步骤:

        1. 为选定的N·N个像素计算了标准偏差
        2. 计算间隙函数Gap,即目标类别的概率与最大概率的其他类别之间的差。
        3. 算法决定是对像素施加正噪声还是负噪声

        4. 根据这些值与间隙函数之间的差异,并同时考虑标准偏差,我们计算出变化优先级。

        5. 将变化优先级VariationPriority排序,并为优先级最高的M个像素加入干扰。

        该算法通过将原始输入图像替换为创建的对抗图像来开始下一次迭代。当原始示例与对抗示例之间的距离超过最大感知距离时,迭代将终止。

    • 总结:4中否定和3中提出的健壮性的衡量方法,提出了新的健壮性的衡量方式,即间隙函数。3中是修改脉冲,而4是修改原是图像的。

阅读全文 »

脉冲深层信任网络容易受到对抗性例子的攻击吗(学习笔记)

发表于 2020-02-04 更新于 2020-07-20 分类于 攻击对抗 阅读次数: Valine:

Marchisio, A., Nanfa, G., Khalid, F., Hanif, M. A., Martina, M., & Shafique, M. (2019). SNN under Attack: are Spiking Deep Belief Networks vulnerable to Adversarial Examples? http://arxiv.org/abs/1902.01147

阅读全文 »

探索具有峰值兼容梯度的脉冲神经网络的对抗攻击(学习笔记)

发表于 2020-02-03 更新于 2020-07-20 分类于 攻击对抗 阅读次数: Valine:

Liang, L., Hu, X., Deng, L., Wu, Y., Li, G., Ding, Y., Li, P., & Xie, Y. (2020). Exploring Adversarial Attack in Spiking Neural Networks with Spike-Compatible Gradient. 1–14. http://arxiv.org/abs/2001.01587

阅读全文 »

概率性脉冲神经网络的对抗训练(学习笔记)

发表于 2020-01-21 更新于 2020-07-20 分类于 攻击对抗 阅读次数: Valine:

Bagheri, A., Simeone, O., & Rajendran, B. (2018). Adversarial Training for Probabilistic Spiking Neural Networks. IEEE Workshop on Signal Processing Advances in Wireless Communications, SPAWC, 2018-June. https://doi.org/10.1109/SPAWC.2018.8446003

阅读全文 »
12
Gulico

Gulico

I`ll spend forever wondering if you knew
19 日志
7 分类
9 标签
GitHub E-Mail Weibo
© 2020 Gulico
由 Hexo 强力驱动 v3.9.0
|
主题 – NexT.Mist v7.3.0