自从AI聊天应用ChatGPT推出后大火之后,各互联网大厂都相继推出或计划推出自己的AI应用产品。百度公司继国内推出一款名为AI虚拟聊天社区APP“小侃星球”后,百度又在海外上线了一款同类型的AI聊天APP「WiseAI」。谷歌则是发布史上最大“通才”AI模型“PaLM-E”。拥有5620亿参数的PaLM-E可让机器人更自主。
诸多的AI应用方便了我们的日常生活,让我们从平凡的任务中解放出来,让我们专注于更有意义和更充实的工作也同样令人们担忧。训练人工智能系统——尤其是那些用于提供新闻、广告和其他定制数字内容的系统——通常依赖于大量敏感的个人数据。据英国广播公司(BBC)报道,IBM近日被指在未经用户同意的情况下,在图片分享网站Flickr上获取了大约100万张照片,用于训练其人脸识别算法。然而这些被披露出AI侵犯个人隐私的事件只是冰山一角。人工智能研发人员一直在从互联网的各个角落搜集大量数据来进行AI训练已经成了行业共识。怎么样能在尊重个人隐私基础上收集更多的AI训练所需要的数据呢?
Oasis 网络提出了负责任的人工智能解决方案。用公平、隐私和透明这三项原则构建了负责任人工智能的框架。在负责任的人工智能愿景中,个人隐私不仅静态和训练期间的数据受到保护,模型本身也受到保护,以防止它们将训练数据泄露给对手。与此同时人工智能决策过程中的做到透明和无偏见。具体运作方式在我前面的文章也有所提及,这里就不重复陈述了。也可以参考https://oasisprotocol.org/blog/the-oasis-privacy-layer-powered-by-sapphire这里的文章。根据Oasis 网络的官方陈述,目前正在合作的项目有下面几个:
1、 Oasis Labs 与 Meta 的合作构建了一个基于 MPC 的系统,为人工智能模型中的公平性和偏见设计解决方案。防止这些弱点需要适当的系统和流程来帮助测量偏差,同时保护为这些测量提供高度敏感的人口统计数据的个人的隐私。
2、Oasis 正在与 Personal.ai 合作,为 AI 创建管道,保护个人共享的数据,用于开发对话式 AI 模型。这些保护措施专门保护创作者及其在线社区,只有在经过可验证的许可访问后,他们才能使用个人数据训练 AI。
AI无疑是一种改变游戏规则的技术,将广泛出现在商业应用中,但必须对其进行负责任的管理,以避免侵犯隐私。尤其是即将到来的Web3 时代,风险比以往任何时候都高。保护敏感数据和消除偏见对于保护我们自己免受这项革命性技术的侵害至关重要。负责任人工智能方案的提出将为AI的发展和保护个人隐私之间的平衡开辟出一条全新的道路。
资料来源:https://oasisprotocol.org/blog/web3-responsible-ai-by-oasis
来源:金色财经