Grammarly即将上任的新CEO谈生成式AI,要做负责任的AI并帮助使用者提高能力
生成式人工智能(generative AI)是2023年西南偏南大会(SXSW)上讨论最多的话题之一,这是有充分理由的。生成式人工智能的最新进展为各类组织彻底改变他们的工作方式提供了无限的可能性。尽管这项技术在提高员工生产力、释放创造力、节省时间和降低成本方面有很大的前景,但将其应用到工作流程中也有很大的责任。
在SXSW的一个由Grammarly主办的小组讨论中,人工智能专家从安全和用户信任的角度讨论了生成式人工智能的影响,以及负责任的人工智能开发的重要性。Hilke Schellmann是一位关注人工智能道德方面的记者,也是纽约大学新闻学教授,他与Grammarly的全球产品主管和即将上任的首席执行官Rahul Roy-Chowdhury进行了讨论。其他参与讨论者包括SAP Design的首席设计研究专家和研究伦理领导者Ellie Kemery以及Grammarly的首席信息安全官Suha Can。
在人工智能的热潮中,企业不能忽视安全问题。在过去的几个月里,蓬勃发展的生成式人工智能初创公司已经进入了企业服务领域。Grammarly首席信息安全官Suha Can表示,当你看到生成式人工智能的提供商的时候,你会发现其中很多都是非常新的公司。他们已经发展成为为大众市场服务的技术提供商。这种情况发生的速度意味着他们可能没有企业级的安全措施。将这些新技术集成到员工工作流程中的组织可能面临合规后果,以及数据泄露和用户隐私风险。
Grammarly等历史更悠久的企业级人工智能提供商最近也进入了生成式人工智能领域。Grammarly已将其14年的安全领域投资应用于其最新的生成式人工智能产品GrammarlyGO。Suha Can表示,我认为(生成式人工智能的新标准)是我们现有政策和实践的迭代。这些人工智能提供商的标准包括:
通过第三方证书(ISO、SOC 2、GDPR和HIPAA)验证的企业级安全控制;
限制用户数据可保留的时间长度的数据最小化策略;
去身份(de-identification)识别算法,以保护用户隐私;
这种安全基础还能够使Grammarly投资于理解、检测和防御生成式人工智能引入的新型攻击,如模型反转、模型中毒和提示注入(prompt injection)。这些类型的攻击与模型交互,可以创建错误信息或泄漏模型所基于的信息。Grammarly在理解这些新威胁方面的投资将为生成式人工智能安全和安全标准的发展创造更高的标准。
生成式人工智能有巨大的潜力来改变企业,但那些没有战略方向就接受这项技术的人是不会成功的。组织必须寻找负责任的人工智能提供商,使他们能够在整个组织中自信地部署技术。Grammarly的全球产品主管Rahul Roy-Chowdhury表示,我们需要进行的对话是,我们构建和部署人工智能系统的有意义的方式是什么,我们使用什么原则来做到这一点?
Grammarly构建人工智能的方法以“增强智能”(augmented intelligence)为中心,这取决于人工智能在增强人类时是可以获得成功的。Rahul Roy-Chowdhury表示,我们的目标是部署人工智能系统帮助用户提高他们的能力,反映他们独特的才能和技能,让他们有机会充分发挥潜力。这个框架包含四个原则:
信任(Trust):致力于最佳的安全和隐私实践,以确保用户数据是加密、私密和安全的;
负责任的(Responsibility):使用高质量数据集建立模型,进行偏差和公平性评估,并根据用户反馈不断改进技术;
用户控制(User control):构建明确专注于帮助人类的人工智能。对于Grammarly来说,这意味着它的人工智能建议反映了用户的真实声音,用户可以控制他们的体验;
共情(Empathy):深刻理解用户问题,利用技术解决实际问题,而不是为了新奇而创造技术。对于Grammarly来说,这意味着理解与整个沟通生命周期(概念、构成、修订和理解)相关的真正挑战,并通过技术解决它们。
企业如何利用生成式人工智能快速发展,取得获取收益,并通过生成式人工智能投资确保适当的安全性和责任感?随着新的生成式人工智能工具在工作场所的激增,组织有责任从安全、合规性和用户信任的角度审查该技术。企业领导者还必须考虑如何在整个组织中安全地部署技术,以增强使用者的能力并推动良好的结果。Rahul Roy-Chowdhury表示,人工智能是我们一生中最具变革性的技术。我们希望这些工具能帮助我们。不要让人工智能对我们下手……我们是负责人。我们不要忘记这一点。
Powered by Froala Editor