然而,风险仍然存在。虽然任何技术都 GenAI 和 LLM 在保 存在风险,但生成式人工智能和法学硕士确实带来了某些传统人工智能方法没有的风险。这包括产生幻觉或编造事物的倾向,以及数据隐私和安全风险。 《华尔街日报》援引思科系统对隐私和安全专业人士的一项调查发现,92% 的受访者“认为生成式人工智能与其他技术有着根本的不同,需要新技术来管理数据和风险。”
在 expert.ai,我们将 GenAI 和 LLM 功能集成到我们自己的混合 AI 平台和我们的保险企业语言模型 ELMI中,该模型通过 expert.ai 保险平台支持生成摘要、零样本提取和生成问答等功能。通过 GenAI 和 LLM 在保 利用混合 AI,我们能够同时使用语义 AI(由于它基于规则,因此是可解释的)和领域特定 AI,从而利用我们多年来与保险公司合作获得的知识。同时,我们将 GenAI 与最合适的 LLM 相结合,以优化结果和成本。
因此,尽管已经测试了用例并获得了早期收益,但重要的是要记住,任何人工智能的使用都需要采取平衡的方法,对于生成人工智能尤其如此。
保险公司采用 GenAI 面临的六大挑战
从基础设施和安全要求到专业知识,公司在采用之前需要解决几个因素:
获取技能和专业知识
建立和使用 LLM 需要广泛的专业知识,从数据科学和机器学习到保险流程和法规领域的特定知识。数据科学家和机器学习工程师在开发 LLM 所依赖的算法方面发挥着关键作用。这需要对自然语言处理 (NLP)技术有深入的了解,并具备管理和处理大型数据集的能力。
此外,拥有保险行业实践专业知识的专业人士对于定制 LLM 应用程序以应对特定行业挑战(例如索赔处理或欺诈检测)至关重要。鉴于对这些技能的需求很高,与供应商或集成商合作可以为您提供学习曲线方面的支持,并提供必要的专业技能和经验,以帮助您利用这些高级功能。
数据治理
有效的数据治理对于应对在保险流程中使用人工智能的复杂性至关重要。技术的演变以及针对 GenAI 和 LLM 功能的新兴行业指导需要确保数据完整性、安全性和正确使用的政策和程序。这包括保护客户隐私、保护数据免遭泄露以及确保人工智能生成的见解既准确又无偏见的措施。
由于人工智能模型是基于公司数据进行训练的,保险公司必须确保其输出不会无意中泄露敏感信息或延续偏见,这凸显了持续监控和审查人工智能系统的重要性。