您正在做冰沙,准备给朋友们享用。您已经将各种水果和酸奶混合在一起了,这时,您的朋友 Ruchir 给您一个熟苹果,您由此完成了这份清凉杰作。现在沙冰已经做好了,给大家分装时还能闻到一股苹果香味。在你们喝第一口之前,Ruchir 说:“我改变主意了,我得走了,而且我想要回我的苹果。”您回答道:“啊,抱歉,那是不可能的。”我们稍后再回到这个故事,解释它与 ChatGPT 和值得信赖的 AI 的关系。
随着人工智能 (AI) 世界的发展,像 OpenAI 的 ChatGPT 这样的新工具因其会话功能备受关注。尽管如此,我也理解在组织内直接采用之前评估其固有风险至关重要。在本次讨论中,我将探讨 ChatGPT 在企业环境中的相关风险和挑战,需要采用谨慎的实施方法。此外,我还将强调,采用 IBM watsonx 来确保值得信赖的 AI 解决方案非常重要。如有疑问,建议您沿用平时采用新的互联网服务时一贯秉持的常识来判断。
ChatGPT 利用 GPT-3(ibm.com 外部链接)和 GPT-4的强大能力,两者均属于“超大规模”且广受欢迎的一类全新大语言模型,广泛应用于各种 AI 应用程序。借助 ChatGPT,用户可以提出问题、生成文本、起草电子邮件、讨论不同编程语言的代码、将自然语言转换为代码等。它是一款表现优异的对话式聊天机器人,旨在根据上下文提供连贯的回复。
ChatGPT 是探索创意写作、激发想法以及与 AI 互动的绝佳工具。每个人都可以免费使用,ChatGPT Plus 订阅者还可以使用更高级的版本。聊天机器人能够记住之前的对话,增强了其互动性和吸引力。
虽然 ChatGPT 获得了极大的关注和热度,但它也面临来自其他 AI 驱动的聊天机器人和自然语言处理 (NLP) 系统的竞争。例如,Google 开发的 AI 聊天机器人 Bard,由自己的语言引擎 PaLM 2 提供支持。同样,Meta 最近发布的 LLaMA2 模型也令人印象深刻。随着 AI 聊天机器人领域的不断拓展,竞争肯定会加剧,也会有的新参与者出现。必须及时了解这一领域的最新进展,才能找到满足企业需求的最佳解决方案。
在企业中直接使用 ChatGPT 存在风险和挑战。包括安全性与数据泄露、保密和责任问题、知识产权复杂性、开源许可证合规性、AI 开发的限制,以及隐私保护及国际法律合规性的不确定性。在此,我将深入探讨这些风险,并分享一些示例来说明这些风险在您的日常企业活动中的体现。
首先,我将研究旨在降低直接使用 ChatGPT 的风险的替代解决方案,包括 IBM watsonx®,我强烈推荐企业使用,因为它通过严格的策划和治理解决了数据所有权和隐私问题。对话的最后,我将带你们回顾冰沙的故事,我保证,下文提到“您的数据”时,您可随意将其替换为“您的苹果”。
在探索替代解决方案之前,公司必须注意直接使用 ChatGPT 所带来的潜在风险和挑战,这一点至关重要。作为一个常识性提醒,互联网的历史展示了新服务(例如 Google 搜索、社交媒体平台等)的出现和演变,这凸显了数据隐私和所有权在企业中的重要性。有鉴于此,应该考虑以下关键因素:
如果在 ChatGPT 中输入了敏感的第三方或内部公司信息,这些信息就会成为聊天机器人数据模型的一部分,并可能会共享给提出相关问题的其他人。这可能会导致数据泄露,并违反组织的安全策略。
示例:您的团队正在帮助客户推出新产品,其相关计划(包括机密的规格信息和营销战略)不应与 ChatGPT 共享,以避免数据泄露和潜在安全漏洞的风险。
与上一点相似,分享客户或合作伙伴的机密信息可能违反旨在保护此类信息的合同协议和法律要求。如果 ChatGPT 的安全性受到损害,机密内容可能会泄露,从而可能影响组织的声誉,并导致组织需要承担相关责任。
示例:假设一家医疗保健组织使用 ChatGPT 来协助回复患者的咨询。如果与 ChatGPT 共享医疗记录或个人健康详细信息等机密患者信息,则可能会违反美国的法律义务和受《健康保险流通和责任法案》(HIPAA)(ibm.com 外部链接)等法律保护的患者隐私权。
ChatGPT 生成的代码或文本的所有权可能会很复杂。服务条款中规定输出结果归输入提供方所有,但如果输出结果中引用了其他输入中受法律保护的数据,则可能会出现问题。如果使用 ChatGPT 基于受版权保护的素材生成书面材料,也可能出现版权问题。
例如:为营销目的而生成书面材料时,输出中包含来自外部来源的受版权保护的内容,而没有适当署名或获得许可,则可能侵犯原内容创作者的知识产权。这可能会给公司带来法律后果和声誉损害。
如果 ChatGPT 使用开源代码库并将该代码整合到产品中,则可能违反开源软件 (OSS) 许可证条款(例如 GPL),从而导致组织面临法律纠纷。
示例:如果公司利用 ChatGPT 为软件产品生成代码,而用于训练 GPT 的训练数据来源不明,则存在可能违反与该代码相关的开源许可证条款的风险。这可能导致法律纠纷,包括许可侵权指控以及开源社区可能采取的法律行动。
ChatGPT 的服务条款规定不得用于开发其他 AI 系统。如果公司从事 AI 系统开发,以这种方式使用 ChatGPT 可能会阻碍未来的 AI 开发计划。
示例:一家专门从事语音识别技术的公司计划通过集成 ChatGPT 的自然语言处理来增强其现有系统的功能。然而,ChatGPT 的服务条款明确规定,不得将其用于开发其他 AI 系统。
回到我们之前讲的冰沙的故事,公共 ChatGPT 利用您的提示来增强其神经网络,就像给冰沙增添苹果风味一样。您的数据一旦进入 ChatGPT,就像“苹果”被“混合”到沙冰中一样,您无法控制也无法了解数据会被如何使用。因此,必须确保他们拥有加入苹果的完整权限,并且其中不包含敏感数据。
为了解决这些问题,IBM watsonx 提供经过整理的透明数据和模型,为您创建和使用沙冰提供了更大的掌控和信心。简而言之,如果 Ruchir 要求归还他的苹果,watsonx 可以满足他的要求。这下您懂了吧......类比和故事到此就讲完了。
IBM watsonx 推出了三个关键功能: watsonx.data、watsonx.ai 和 watsonx.governance。它们相互配合,以 OpenAI 模型中尚不存在的方式构建值得信赖的 AI。这些功能可以策划并标记数据和 AI 模型,确保来源和所有权详细信息透明。他们还会治理模型和数据,解决持续存在的漂移和偏差问题。这种严谨的方法有效地缓解了本文所讨论的数据所有权和隐私问题。
IBM 与一家开源技术公司 Hugging Face 合作创建一个生态系统。两家公司都利用 watsonx 的功能,根据模型的功能和可信度策划和认可模型。
在企业内直接使用 ChatGPT 等 AI 聊天机器人存在安全性、数据泄露、保密、责任、知识产权、合规性、AI 开发的限制和隐私等相关风险。这些风险可能会对组织产生不利影响,包括声誉受损和代价高昂的法律纠纷。
为了降低这些风险并构建值得信赖的 AI,IBM watsonx 应运而生,成为推荐的解决方案。它提供经过整理和标记的数据和AI 模型,确保所有权和来源透明。它解决了与偏见和漂移相关的问题,额外增添了一层信任。IBM watsonx 在创新和负责任地使用 AI 之间取得了平衡。此外,IBM 与 Hugging Face 的合作也增强了这个模型生态系统。
虽然 watsonx 能够提供更高的信任度和严谨性,但目前很少有模型能与 ChatGPT 及 GPT 系列模型的广泛通用用途相媲美。随着 AI 模型领域不断发展,各方面都有望持续改进。为确保最佳结果,了解模型的评级和训练方式至关重要。这有助于组织做出明智的决策,并选择最符合其需求和质量标准的模型。
通过采用 watsonx,组织可以利用 AI 的力量,同时保持对数据的控制,并确保遵守道德和法律标准。组织可以保护自己的数据,保护自己的知识产权,并培养利益相关者的信任,同时从经过整理的模型和更高的透明度中受益。企业在 AI 领域前行时,必须谨慎行事,深入了解各种解决方案,并优先考虑值得信赖的 AI。
IBM 不定期邀请行业思想领袖分享他们对当前科技趋势的看法和洞察分析。本博客文章中的观点仅为个人观点,并不一定反映 IBM 的观点或战略。
使用面向 AI 构建器的新一代企业级开发平台 IBM watsonx.ai,可以训练、验证、调整和部署生成式 AI、基础模型和机器学习功能。使用一小部分数据,即可在很短的时间内构建 AI 应用程序。
借助 IBM 业界领先的人工智能专业知识和解决方案组合,让人工智能在您的业务中发挥作用。
通过增加 AI 重塑关键工作流程和运营,最大限度提升体验、实时决策和商业价值。