实用的人工智能精算解决方案,配备四项技术,超越 LLM 的局限性
作者:人工智能项目负责人 Justin Hwang、人工智能团队负责人 Donghwan Lee 和人工智能专家 Scarlett Bae
LLMs:现代社会中最先进的人工智能模型
追溯人工智能模型的历史发展,我们会发现一个非凡的演变过程--从早期的基于规则的系统到今天高度复杂的大型语言模型(LLM),如 GPT 和 Gemini。这一历程经历了机器学习和深度学习两个阶段,技术和数据获取能力的进步推动了这一进程。因此,人工智能已成为各行各业不可或缺的工具。
在最近的人工智能突破中,LLM 是最受关注的创新。这些深度神经网络模型专门设计用于通过学习海量文本数据(从数十亿到数万亿个单词)来理解和生成人类语言。LLM 擅长把握语言中的复杂关系和上下文的细微差别。
然而,尽管 LLM 具有令人印象深刻的能力,但对于一些用户来说,LLM 仍然会感觉抽象或难以掌握。从根本上说,LLM 是一种深度学习模型--由众多非线性回归模型组成的复杂复合体。通过采用转换器架构,LLM 获得了理解文本中长距离依赖关系的强大能力,使其能够进行类似人类的自然语言对话。这种结构与功能的结合就是大型语言模型的定义。
[图 1. 神经网络模型和非线性回归模型]
法律硕士的局限性以及如何克服这些局限性
大型语言模型(LLM)的优势毋庸置疑。凭借其卓越的自然语言处理能力,它们被广泛应用于文档分析、客户服务、内容创建和许多其他领域。它们的灵活性和可扩展性是无与伦比的,其基础是在海量数据集上进行的广泛训练。
然而,LLM 也表现出明显的局限性。其中最突出的是幻觉现象,即模型生成的信息听起来可信,但实际上是不正确的。此外,由于缺乏深入的领域专业知识和高级推理能力,LLM 在处理复杂的 Excel 电子表格时往往会遇到困难--在这些电子表格中,公式和表格在多个表单中相互连接,LLM 认为它们更像是一个迷宫,而不是一个结构化的数据集。
精算学是一个对准确性和可靠性要求极高的领域,在将 LLM 应用于精算学时,这些局限性会带来严重的风险。基于错误信息的输出可能导致金融不稳定、违反监管规定和失去信任。因此,在如此高风险的环境中部署 LLM 之前,必须探索加强事实基础和逻辑结构的方法。
解决方案 1:微调 - 通过额外的模型培训加强精算专业知识
法律硕士的另一个实际局限是他们缺乏对特定组织或行业的背景适应性。由于 LLM 通常是根据广泛的公共数据来源(如谷歌或维基百科)进行培训的,因此他们往往无法完全掌握保险产品复杂的合同结构或详细的监管框架(如 IFRS 17 和资本要求)。这种特定领域知识的缺乏是实际应用的一大障碍。
克服这一挑战的有效方法之一是微调。微调是利用特定领域的数据、术语和任务模式进一步训练预先训练好的 LLM(基础模型)的过程。从本质上讲,它将通用人工智能转变为 "内部专家",为理解和执行特定专业背景下的任务而量身定制。
[图 2:微调的概念,来源:medium.com]
微调工作按以下方式进行:
收集特定领域的文本数据:收集文件,如产品手册、基础文件、精算和假设文件以及内部手册。
创建指令数据集:设计成对的用户问题和模型应提供的理想答案。
(例如,问:"该产品的主要优点是什么?" → 答:"它包括癌症诊断津贴、癌症住院津贴、手术津贴和门诊津贴。→ 答:"它包括癌症诊断给付、癌症住院、手术和门诊给付。诊断给付仅在首次诊断时给付一次......")。重新训练基于 LLM 的模型:对基础模型的参数进行部分更新,以建立适合本组织的语言模型。
验证和性能评估:使用与业务相关的实际问题测试模型的适用性和准确性。
这种方法在以下情况下尤其有效:
- 当领域高度专业化,仅靠基于提示的方法难以获得一致的结果时
(例如,用于计算特定保险产品的保费、准备金或现金流的保险精算软件代码)
- 当重复的业务问题必须保持一致的标准时
- 当模型必须在没有 API 访问的网络隔离环境中独立运行时
RNA Analytics 目前正在利用客户特定的数据集进行分阶段实验,对人工智能驱动的精算自动化系统R3S Modeling Agent 进行微调,旨在提高任务适用性和响应一致性。
微调既是 "提高性能的技术",也是 "确保信任的战略"。未来,人工智能要想在保险行业提供一致的判断和可解释的结果,除了选择预先训练好的模型之外,微调和组织定制将是至关重要的能力。
解决方案 2:RAG(检索-增强生成) --通过整合外部知识源提高准确性
克服传统语言模型局限性的关键策略之一是 RAG。RAG 使大型语言模型 (LLM) 能够实时从外部知识源检索信息(检索),用这些信息补充其响应(增强),然后生成最终答案(生成)。与完全依赖预先训练参数的传统 LLM 不同,RAG 通过引用可信的外部数据,显著提高了准确性和可靠性。
让我们进一步了解 RAG 的组成部分和工作流程:
查询:用户输入的问题或请求
检索:根据输入查询从外部知识库检索语义相关信息
增强:将检索到的信息与原始查询相结合,并传递给响应生成模型
生成:模型利用增强输入生成最终响应
总之,RAG 是一个实用而强大的框架,可以从结构上控制幻觉。它不仅弥补了 LLM 的弱点,而且正在成为构建可信人工智能响应系统的核心技术。RAG 尤其适用于高精度领域,例如保险业的精算工作。
[图 3:RAG 流程和检索方法]
解决方案 3:数据集和文档格式化 --让人工智能更容易阅读和理解文档
最重要的是,数据集是任何人工智能项目取得成功的决定性因素。数据质量直接影响人工智能的性能。以保险业为例,一些公司已经在人工智能系统上投入了巨额资金,但却未能达到预期效果。
其中一个关键原因是文件格式。许多包含保险数据的文档都是以人工智能难以读取的格式编写的。这个问题不仅仅是简单的错别字或错误。通常情况下,文档的结构无法让人工智能系统地理解。由于文档质量是使用人工智能提高精算生产力的最关键因素,因此必须解决必须改进的三个关键文档准备做法。
首先,是时候摆脱以 PDF 为中心的文档创建方式了。
PDF 主要是为打印而设计的。虽然人眼看起来不错,但机器对其结构的解读却很模糊。最近有人尝试使用 OCR(光学字符识别)或 Vision Transformers 等人工智能技术来分析 PDF,但这些方法在准确性方面存在局限性,而且需要花费大量时间和成本进行预处理和后处理。
另一方面,.docx、.tex、.html 和 .md(Markdown)等格式是基于文本的、全球公认的标准,人工智能可以对其进行准确解析。值得注意的是,微软的开源 Markdown 项目得到了全球开发者的积极参与,使其成为各种保险业务文档稳定可靠的格式。
如果贵公司仍然依赖于特定国家的文字处理器或非标准文档格式,就很有可能在人工智能转型浪潮中落伍。当务之急是开发专用工具,将这些文档转换为人工智能可读格式,或者在全公司范围内加速向标准化文档格式过渡。
第二,使用 LaTeX 或 KaTeX 来处理公式而不是图像
复杂的公式经常出现在精算工作中。然而,以图像形式插入公式的情况仍很常见。人工智能无法读取基于图像的公式。虽然 OCR 可以在一定程度上识别它们,但准确率很低,成本也会增加。
正确的做法是使用 TeX 语法输入公式。即使公式的视觉效果很好,但如果底层代码结构不良,人工智能也无法解释它们。这就是典型的 "垃圾进,垃圾出"。
特别推荐 KaTeX。它能在网络浏览器中快速渲染,非专业人员也能轻松学会,因此很容易在整个组织内采用。
第三,避免将整个文档格式化为表格
在人类看来,将整个文档以表格的形式排列以控制布局可能看起来很整洁,但从人工智能的角度来看,这几乎就像是一份加密文档。表格掩盖了文档的语义结构,如标题、段落和章节,使得人工智能很难理解上下文。尤其是当正文、副标题和解释都放在表格中时,人工智能就很难分辨和解释想要传达的信息。
在编写文档时,必须使用文字处理器提供的 "标题样式"、"段落 "和 "列表 "等语义格式功能。这种方法不仅有利于人工智能的可读性,还能大大提高文档的可搜索性和可维护性。
保险公司拥有大量的数据资产。但是,如果这些数据不是以人工智能可以读写的形式存在,它们的价值就无法实现。
人工智能转型不仅仅是采用新技术的问题。它是一种战略转变,旨在实现信息结构标准化,并创建人类和机器都能理解的文件。
从现在开始,审查贵公司的文档格式。删除 PDF 和基于图像的公式,过渡到人工智能友好型文档结构。采用人工智能的起点不是 "算法",而是 "文档"。
解决方案 4:基于本体的数据库 --帮助人工智能理解意义
在精算领域,建立基于本体的数据库至关重要。本体清晰地定义和构造概念和术语,帮助人工智能更准确地理解和处理信息。在精算工作中使用本体可以大大提高数据和结构理解之间的互操作性,从而更准确、更快速地做出决策。
本体是一个明确定义特定领域内的概念和关系的系统,它将保险产品结构、精算/统计/财务技术、法律和会计法规以及公司内部政策和手册等知识结构化。通过将生成的知识图谱存储在数据库中并根据需要加以使用,大型语言模型(LLM)可以更准确地回答问题,更好地理解上下文,并推断信息之间的关系。
例如,当被问及特定保险产品准备金的计算方法时,LLM 可以在基于本体的知识图谱数据库中全面搜索相关法规、精算方法和类似的现有产品,从而生成可靠的答案。同时,它还能直观地展示答案所依据的数据和概念,从而提高透明度和用户信任度。
[图 4.假设癌症保险产品的知识图谱示例]
要在实践中应用这项技术,精算师、数据科学家和人工智能工程师之间的合作以及分阶段构建本体和知识图谱的战略至关重要。自动提取和更新关系的技术以及 LLM 与知识图谱之间的集成设计也是新兴的关键组成部分。
RNA Analytics 公司人工智能实验室负责人 Donghwan Lee 表示:"LLM 有可能极大地提高精算工作的效率和便利性,但确保可靠性对其安全应用至关重要。数据质量、标准化文档结构和基于本体的数据库是克服人工智能局限性、推动精算实践真正创新的关键。
RNA Analytics的人工智能解决方案
RNA Analytics 正在为保险业开发基于人工智能的下一代解决方案。其中一个解决方案是R3S Thalexa™,旨在结合公司的旗舰精算软件增强精算建模能力、 R3S Modeler.
Thalexa--以大脑丘脑命名,作为信息传输的枢纽,象征着其作为精算生态系统中的中心枢纽,连接和处理整个保险行业的各种信息。
R3S Thalexa™
核心功能 1:知识代理
自动从基于文档的输入材料中提取信息,并填充 BB 矩阵(包含产品结构和假设相关数据的表格)。
从基于文档的输入材料中自动构建基于本体的数据库。
核心功能 2:建模代理
人工智能驱动的聊天机器人:为精算理论、保险法规和R3S Modeler 文档提供实时问答支持。
R3S Modeler 代码协助:通过实时建议代码提高建模效率。
R3S Modeler的自主人工智能建模系统:自动生成精算模型,最大限度地减少人工操作,提高效率。
R3S Thalexa™ 是一个人工智能驱动的保险产品定价自动化平台,可从文档中提取产品结构和假设数据,将其完善为模型就绪格式,并将其与保费和准备金计算以及盈利能力分析连接起来。
有了 Thalexa,保险公司可以大幅减少产品修订和新产品开发所需的时间和人力资源,从而进行更复杂的盈利能力评估,更快地响应市场需求。
[R3S Thalexa™ 用户界面]
RNA Analytics 正在稳步扩展其人工智能解决方案的核心功能。2025 年 1 月,公司开发了旗舰精算语言模型ActyLLM,到 2025 年 7 月,将推出基于提示的问答功能和模型代码建议功能。到今年年底,RNA 计划通过建模代理(Modeling Agent)推出完全自主的模型构建人工智能,能够生成完整的模型结构。该人工智能解决方案旨在随着发布后用户反馈的不断积累,逐渐发展成为一个功能日益强大的引擎。
RNA Analytics的高技能人工智能专业人员正在开发和完善这一突破性技术。RNA 的人工智能实验室由在精算科学、软件开发、数据科学和人工智能方面拥有跨国经验的专家组成。凭借在韩国、英国和澳大利亚等市场的实际专业知识,该团队提供量身定制的人工智能解决方案,以满足每个客户的独特需求。
[图 5. R3S 人工智能解决方案:系统架构和输出结果]
RNA Analytics 公司人工智能项目负责人 Justin Hwang 表示;
"我们的人工智能解决方案由 ActyLLM 和 R3S Thalexa™ 主导,超越了单纯的技术范畴。它们旨在成为人工智能战略合作伙伴,推动整个保险行业的业务创新和数字化转型。我们的目标是通过自动化产品开发、盈利能力分析以及对《国际财务报告准则第 17 号》等法规和偿付能力要求的支持来提供切实的价值,最终使我们的客户能够增强其竞争力"。
人工智能在精算工作中的应用已经超越了实验阶段。现在,它正朝着真正的操作自动化和提高信息准确性的方向发展,复杂的知识结构和集成系统设计使之成为可能。