IJCAI 2020

阅读: 评论:0

IJCAI 2020

IJCAI 2020

本文介绍的是由微众银行联合香港科技大学研究员高大山、谭奔、鞠策、郑文琛和杨强教授共同完成,被国际人工智能顶会IJCAI 2020下设联邦学习专项研讨会(FL-IJCAI’20)录用的论文《Privacy Threats Against Federated Matrix Factorization》。该论文提供了推荐系统领域一类最常用算法的联邦化方案,为联邦推荐系统落地提供快速便捷的技术路径。

全文地址:.01587

推荐系统广泛应用于众多日常生活场景中。从电商购物、在线视频到新闻流,推荐系统已然成为智能时代的关键技术。隐私保护问题随着推荐系统对个人数据需求的增加而变得愈发重要。联邦学习作为一种解决隐私问题的重要技术,通过在各个参与方本地训练模型并交换参数,来实现在隐私数据不出本地的前提下,多方合作构建推荐系统。但是简单的参数传递仍然存在隐私泄漏的风险。微众银行AI营销团队联合香港科技大学研究了不同联邦推荐场景下推荐系统中的潜在隐私风险,并提供了解决方案。

 

推荐系统的“数据孤岛”困境

推荐系统技术在商业社会中为国内和国际众多科技巨头腾讯,Google等公司带来海量的营收。在电商购物与短视频推送等众多业务场景中,推荐系统根据收集到的用户数据为不同用户推送个性化的内容,已然成为智能时代的关键技术。 

传统上,为了训练高性能的推荐系统,一家公司需要收集足够多的用户数据。然而,由于“用户-商品”交互的稀疏特点,单个公司很难收集到足够的数据来训练满意的推荐模型。近年来颁布的GDPR(通用数据保护条例)和CCPA(加州消费者隐私法案)等数据安全法律法规又严格限制了公司间的用户数据共享,使得公司间共享用户数据充满风险,阻碍推荐系统的发展。

联邦学习作为一种新的机器学习范式,使得不同参与方可以在不泄露隐私数据的前提下协作构建一个智能系统。同时解决了隐私保护与数据稀缺问题。尽管联邦推荐技术可以通过参与方之间交换参数的方式避免原始训练数据泄露和传输,但训练联邦模型过程中交换的参数依然可能泄露参与方的隐私数据。

微众银行AI营销团队联合香港科技大学深入研究推荐系统中,建立联合模型时,面对交换明文参数的潜在隐私风险,针对性地使用加密技术避免隐私泄漏。特别的,以矩阵分解推荐算法为例,在不同的推荐场景下,展示了一个诚实但好奇的参与方如何在明文参数交换过程中窃取用户的隐私评分数据,并讨论了几种隐私保护技术以抵御隐私泄露风险。

 

明文联邦矩阵分解为什么泄露隐私?

我们假设有A,B两个参与方进行

本文发布于:2024-02-02 18:07:05,感谢您对本站的认可!

本文链接:https://www.4u4v.net/it/170686912545513.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:IJCAI
留言与评论(共有 0 条评论)
   
验证码:

Copyright ©2019-2022 Comsenz Inc.Powered by ©

网站地图1 网站地图2 网站地图3 网站地图4 网站地图5 网站地图6 网站地图7 网站地图8 网站地图9 网站地图10 网站地图11 网站地图12 网站地图13 网站地图14 网站地图15 网站地图16 网站地图17 网站地图18 网站地图19 网站地图20 网站地图21 网站地图22/a> 网站地图23