协作机器学习中的非预期特征泄露研究任务书

 2021-12-23 08:12

全文总字数:1561字

1. 毕业设计(论文)主要内容:

协同机器学习和相关技术,如联邦学习,允许多个参与者,每个人都有自己的训练数据集,通过局部训练和定期交换模型更新来建立一个联合模型。

我们证明这些更新会泄漏参与者训练数据的非预期信息,并开发被动和主动的推理攻击来利用这种泄漏。

首先,我们证明了一个敌对的参与者可以从其他人的训练数据中推断出确切的数据点的存在。

剩余内容已隐藏,您需要先支付后才能查看该篇文章全部内容!

2. 毕业设计(论文)主要任务及要求

1. 学习机器学习中卷积神经网络的基本知识;2. 学习联邦学习的框架和流程;3. 设计实现基于机器学习的模型,包括预期特征和非预期特征的预测模型;4. 查阅参考文献15篇以上(其中近五年外文文献不少于3篇);5. 完成不少于12000字的毕业论文撰写并完成答辩的相关工作;6. 完成不低于5000汉字(20000英文印刷符)的教师指定的相关文献的英译汉翻译;7. 完成不少于12幅图设计(包括:流程图、结构框图、程序框图等)。

3. 毕业设计(论文)完成任务的计划与安排

1. 第1-3周 完成题目调研,完成文献阅读,进行相关资料的收集,完成文献综述以及开题报告撰写;2. 第4-5周 学习卷积神经网络和联邦学习,完成论文开题;3. 第6-12周 完成模型的训练和测试,撰写论文初稿;4. 第13-15周 测试程序的实际显示效果,并针对使用过程出现的问题进行优化,完成论文修改并提交。

5. 第16周 答辩。

4. 主要参考文献

[1] M. Abadi, A. Chu, I. Goodfellow, H. B. McMahan, I. Mironov, K. Talwar, and L. Zhang. Deep learning with differential privacy. In CCS, 2016.

[2] G. Ateniese, L. V. Mancini, A. Spognardi, A. Villani, D. Vitali, and G. Felici. Hacking smart machines with smarter ones: How to extract meaningful data from machine learning classiers. IJSN, 10(3):137–150, 2015.

[3] M. Backes, P. Berrang, M. Humbert, and P. Manoharan. Membership Privacy in MicroRNA-based Studies. In CCS, 2016.

剩余内容已隐藏,您需要先支付 10元 才能查看该篇文章全部内容!立即支付

以上是毕业论文任务书,课题毕业论文、开题报告、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。