试想一下,通过文本查询开启全新的知识世界,将如何大幅提升学习效能与工作效率,这一切皆有可能。生成式 AI 的应用场景日益丰富,包括协助撰写文章、论文或电子邮件;获取研究摘要;生成创意和头脑风暴;在零售和旅游中提供个性化推荐的动态搜索;以及为教育和培训解释复杂主题。借助生成式 AI,搜索方式将发生巨大变化。用户不再只是得到多个文章的链接,而是直接获得从海量数据中综合得出的答案。这就像是在与一台非常聪明的机器进行对话。
生成式 AI 使用一种先进的机器学习算法,根据用户的提示并运用 自然语言处理 (NLP) 来生成对几乎任何问题的答案。它利用大量的互联网数据、大规模预训练和强化学习,使用户交互呈现出惊人的类人特性。通过人类反馈的强化学习 (RLHF),生成式 AI 能根据不同的情境和场景进行调整,随着时间推移变得更加准确和自然。生成式 AI 正在被分析用于多种应用场景,包括营销、客户服务、零售和教育。
ChatGPT 使用名为 Transformer 的深度学习架构,代表了 NLP 领域的重大进步。虽然 OpenAI 占据了领先地位,但竞争也越来越激烈。根据 Precedence Research,2022 年全球生成式 AI 市场规模为 107.9 亿美元,预计到 2032 年将达到约 1180.6 亿美元,2023 至 2032 年的复合年增长率 (CAGR) 为 27.02%。这一切固然令人赞叹,但也并非全无隐忧。
使用现成的预构建生成式模型时存在一些根本性问题。每个组织都必须在价值创造的机会与潜在风险之间取得平衡。根据业务类型和具体用例,如果风险容忍度较低,组织会发现自行构建或与可信合作伙伴合作能够获得更好的结果。
在使用现成生成式 AI 模型时,需要考虑的主要问题包括:
当今许多生成式 AI 的核心依赖于来自 Wikipedia、网站、文章、图像或音频文件等大量数据。生成式模型通过匹配底层数据的模式来生成内容,如果缺乏控制,可能存在恶意意图,例如传播虚假信息、偏见或网络骚扰。由于这项技术仍然非常新,有时缺乏问责机制,同时在版权和版税等方面也增加了声誉和合规风险。
生成式模型的下游开发者可能无法全面了解模型将如何被使用或改编到其他用途。这可能导致错误的假设和结果。当错误涉及较不重要的决策(如选择某个产品或服务)时影响有限,但如果影响到业务关键决策,则可能使组织面临不道德行为指控(包括偏见)或监管合规问题,从而引发审计或罚款。
对诉讼和监管的担忧最初会限制大型组织使用生成式 AI 的方式。尤其在高度受监管的行业,如金融服务和医疗保健,对基于不完整或不准确数据所做的不道德或有偏见的决策容忍度极低,而模型错误可能带来严重后果。
随着时间推移,生成式模型的监管环境将逐渐完善,但企业需要主动遵守相关规定,以避免合规违规、损害公司声誉、引发审计或遭受罚款。
随着 AI 洞察结果对业务的重要性不断提升,以及技术选择不断增加,组织需要确保其模型以负责任的方式运行,具备透明的流程和可解释的结果。主动在 AI 项目中融入治理的组织,能够更有效地发现和缓解模型风险,同时增强遵循道德原则和政府法规的能力。
当务之急是选择可信赖的技术并契合企业自身能力。您可以从了解 IBM 在新生成式 AI 模型方面的进展开始,利用 watsonx.ai,并主动部署 watsonx.governance,以推动当前及未来的负责任、透明且可解释的 AI 工作流。
watsonx.governance 提供了强大的治理、风险与合规 (GRC) 工具包,旨在将 AI 生命周期工作流落地,实现主动风险检测与缓解,并提升对日益变化的法律、道德和监管要求的合规性。可定制的报告、仪表板和协作工具将分布式团队连接起来,提高利益相关者的效率、生产力和问责性。模型元数据和事实的自动捕获不仅支持审计,还推动模型结果的透明性和可解释性。
IBM OpenPages是一款统一的治理、风险和合规 (GRC) 解决方案,可帮助您管理、监控和报告风险和合规性,从而加速整个组织的治理并简化风险管理。了解更多关于 watsonx.governance 如何推动负责任、透明且可解释的 AI 工作流,以及未来即将推出的功能增强。