您现在的位置是:网站首页> 新闻快讯> 软件使用 新闻快讯
absinthe 2 0 1
小玉2023-07-05【软件使用】 214人已围观
简介画作里的幽灵。TheRavenbyJ.WilliamCarlingAlbertoZardoforInfernoC.XXXIVOlgaBaumer
absinthe 2 0 1
最后更新:2023-07-05 00:42:51
推荐指数:
画作里的幽灵。TheRavenbyJ.WilliamCarlingAlbertoZardoforInfernoC.XXXIVOlgaBaumertRichardNicolausHolst,YounggirlwithDeath,1894"Spirit" byGeorgeRoux(1853-1929)RemediosVaro,Lallamada(TheCall)TheSilentVoice,GeraldMoira(19thcentury)TheAbsintheDrinkerbyViktorOlivaTheLadyGhostAdelaideClaxton论深层神经网络中对抗性稳健性与决策区域的关系一般来说,深层神经网络(DNNs)是通过在训练阶段排除的未见过的数据上测量的泛化性能来评估的。.随着DNN的发展,泛化性能趋向于最先进的水平,仅仅根据这一指标来评估DNN变得很困难。.对抗对抗性攻击的鲁棒性已被用作评估DNN的一个额外指标,即衡量其脆弱性。.然而,很少有研究从DNN的几何学角度来分析对抗性稳健性。.在这项工作中,我们进行了一项实证研究,以分析在对抗性攻击下影响模型稳健性的DNN的内部属性。.特别是,我们提出了"填充区域集"(PRS)的新概念,其中训练样本被更频繁地填充,以代表实际环境中DNN的内部属性。.通过对所提概念的系统实验,我们提供了经验性的证据,证明低PRS比率与DNN的对抗性稳健性有很大关系.我们还设计了PRS正则器,利用PRS的特点来提高对抗性稳健性,而不需要进行对抗性训练。.《OntheRelationshipBetweenAdversarialRobustnessandDecisionRegioninDeepNeuralNetwork》论文地址:网页链接全范围内稳健的部分对部分点云注册由于稀疏和嘈杂的测量、不完整的观测和巨大的变换,三维物体的点云注册是非常具有挑战性的。在这项工作中,我们提出了图谱匹配共识网络(GMCNet),它为全范围1部分到部分的点云注册(PPR)估计对等的对应关系。为了编码稳健的点描述符,1)我们首先全面研究了各种几何特征的变换稳健性和噪声弹性。2)然后,我们采用了一个新的变换稳健点变换器(TPT)模块,以适应性地聚合考虑结构关系的局部特征,该模块利用了手工制作的旋转不变量($RI$)特征和抗噪空间坐标的优势。3)基于层次图网络和图形建模的协同作用,我们提出了层次图建模(HGM)架构来编码稳健的描述符,其中包括:i)从$RI$特征中学习的单项术语;ii)通过TPT模块从不同尺度的相邻点关系中编码的多个平滑度术语。此外,我们用虚拟扫描构建了一个具有挑战性的PPR数据集(MVP-RG)。广泛的实验表明,GMCNet的性能优于以前最先进的PPR方法。值得注意的是,GMCNet为每个点云单独编码点描述符,而不使用跨环境信息,也不使用训练用的地面真相对应。我们的代码和数据集将在网页链接。《RobustPartial-to-PartialPointCloudRegistrationinaFullRange》论文地址:网页链接CodedPaddedFL和CodedSecAgg:联合学习中的串扰缓解和安全聚合我们提出了两个新的编码联合学习(FL)方案,用于线性回归,以减轻交错设备的影响。第一个方案,编码填充FL,减轻了交错设备的影响,同时保留了传统FL的隐私水平。特别是,它将保护用户数据隐私的一次性填充与梯度编码相结合,以产生对交错设备的弹性。为了对真实数据进行一次性填充,我们的方案利用了数据的定点算术表示。在有25台设备的情况下,与传统的FL相比,编码填充FL在MMIST和Fashion-MNIST数据集上分别实现了6.6和9.2的加速系数,准确率为95%和85%。此外,与Prakash\emph{etal.}最近提出的方案相比,它在延迟方面产生了类似的性能,但没有额外泄漏隐私数据的缺点。第二个方案,CodedSecAgg,提供了对模型反转攻击的滞后性和稳健性,是基于Shamir的秘密共享。在有120个设备的MNIST数据集上,CodedSecAgg优于LightSecAgg等最先进的安全聚合方案,其加速系数为6.6-14.6,取决于串通设备的数量,但与CodedPaddedFL相比,延迟增加了30%。《CodedPaddedFLandCodedSecAgg:StragglerMitigationandSecureAggregationinFederatedLearning》论文地址:网页链接DeepSight:通过深度模型检查缓解联合学习中的后门攻击联合学习(FL)允许多个客户在他们的私人数据上协同训练一个神经网络(NN)模型,而不泄露数据。最近,针对FL的几个有针对性的中毒攻击已经被引入。现有的抵御后门攻击的对策是低效的,通常只是为了从聚合中排除无效的模型。然而,这种方法也会去除具有偏差数据分布的客户的良性模型,导致聚合模型对这些客户的表现不佳。为了解决这个问题,我们提出了DeepSight,一种用于缓解后门攻击的新型模型过滤方法。它基于三种新型技术,可以描述用于训练模型更新的数据分布,并寻求测量NNs内部结构和输出的细粒度差异。利用这些技术,DeepSight可以识别可疑的模型更新。我们还开发了一个能够准确地对模型更新进行聚类的方案。结合这两个部分的结果,DeepSight能够识别并消除包含具有高攻击影响的中毒模型的模型集群。我们还表明,可能未被发现的中毒模型的后门贡献可以通过现有的基于权重剪裁的防御措施得到有效缓解。我们评估了DeepSight的性能和有效性,并表明它可以缓解最先进的后门攻击,对模型在良性数据上的性能影响可以忽略不计。《DeepSight:MitigatingBackdoorAttacksinFederatedLearningThroughDeepModelInspection》论文地址:网页链接FinGAN:用于银行和保险业分析性客户关系管理的生成对抗网络信用卡的流失预测、保险业的欺诈检测以及贷款和违约预测是重要的分析性客户关系管理(ACRM)问题。由于欺诈、流失和违约发生的频率较低,这些问题的数据集自然是高度不平衡的。因此,所有有监督的机器学习分类器在这种不平衡的数据集上训练时,往往会产生大量的假阳性率。我们提出了两种数据平衡的方法。在第一种方法中,我们提出了一种超采样方法,使用生成对抗网络(GAN)生成少数群体的合成样本。我们分别采用VanillaGAN[1]、WassersteinGAN[2]和CTGAN[3]来对少数群体的样本进行超额采样。为了评估我们提出的方法的有效性,我们使用了大量的机器学习分类器,包括随机森林、决策树、支持向量机(SVM)和逻辑回归,对GANs平衡的数据进行分析。在第二种方法中,我们引入一种混合方法来处理数据不平衡。在这第二种方法中,我们通过将GAN超量采样的合成少数人类别数据与单类支持活力机(OCSVM)[4]获得的多数人类别数据进行增量,共同利用了欠采样和超量采样的力量。我们将GAN生成的过量采样数据和OCSVM[4]的欠量采样数据结合起来,并将结果数据传递给分类器。当我们把我们的结果与Farquad等人[5]、Sundarkumar、Ravi和Siddeshwar[6]的结果相比较时,我们提出的方法在所有数据集上的ROC曲线下面积(AUC)方面都超过了以前的结果。《FinGAN:GenerativeAdversarialNetworkforAnalyticalCustomerRelationshipManagementinBankingandInsurance》论文地址:网页链接在零起点的情况下评估多选任务中的提示语大型语言模型显示,通过自然语言提示,可以实现令人印象深刻的零枪成绩(Radford等人,2019;Brown等人,2020;Sanh等人,2021)。然而,创建一个有效的提示,需要大量的试验和错误。这就提出了一个问题:一个提示的质量如何影响它的表现?为此,我们从各种不同的任务中收集并标准化了提示语,以用于它们并非为之设计的任务。然后,我们在固定的多选题组中评估这些提示语,对提示语的某些属性如何影响表现进行定量分析。我们发现,包括选择和使用在预训练中没有使用过的提示语会带来明显的改善。所有的实验和代码都可以在GitHub-gabeorlanski/zero-shot-cross-task:CourseProjectf...。《EvaluatingPromptsAcrossMultipleChoiceTasksInaZero-ShotSetting》论文地址:网页链接对语音识别系统的对抗性攻击中的语言依赖性自动语音识别(ASR)系统无处不在地存在于我们的日常设备中。它们很容易受到对抗性攻击,即被操纵的输入样本欺骗了ASR系统的识别。虽然已经分析了各种英语ASR系统的对抗性例子,但还没有跨语言的脆弱性比较分析。我们以Deepspeech为例,比较德语和英语ASR系统的可攻击性。我们研究了其中一个语言模型是否比另一个更容易被操纵。我们的实验结果表明,英语和德语在成功生成对抗性例子所需的计算努力方面存在着统计上的显著差异。这一结果鼓励我们进一步研究ASR的鲁棒性分析中与语言相关的特征。《LanguageDependenciesinAdversarialAttacksonSpeechRecognitionSystems》论文地址:网页链接评估面向任务的对话中实体链接的预训练转化器模型预训练转化器模型(PTMs)在自然语言任务中的广泛适用性已得到充分证明,但对其理解短语文本的能力却探索得较少。为此,我们从无监督实体链接的角度对不同的PTMs进行了评估,这些PTMs在面向任务的对话中具有5种特征--句法、语义、短文、数字和语音。我们的结果表明,与传统技术相比,几个PTMs产生的结果并不理想,尽管与其他神经基线相比具有竞争力。我们发现,它们的一些缺点可以通过使用针对文本相似性任务进行微调的PTMs来解决,这说明在理解语义和句法对应关系方面的能力有所提高,而且在短文、数字和语音的变化方面也有一些改善。我们进行了定性分析,以了解其预测的细微差别,并讨论了进一步改进的范围。代码可在网页链接《EvaluatingPretrainedTransformerModelsforEntityLinkinginTask-OrientedDialog》论文地址:网页链接
很赞哦! (0)
相关文章
文章评论
验证码: