保险公司排除人工智能相关责任,理由是系统性风险和备受瞩目的事件
## 执行摘要
全球保险业正在积极规避与人工智能相关的风险,主要承运商正在寻求监管批准,以将人工智能驱动的错误和不当行为排除在企业责任保单之外。以 **AIG** 和 **W.R. Berkley** 等公司为首的这一战略性撤退,是对人工智能相关责任不可预测和潜在系统性性质的回应。最近涉及重大财务损失和声誉损害的备受瞩目案例凸显了巨大的风险,迫使对可保性进行重新评估,并为越来越依赖人工智能技术的企业造成了严重的保险缺口。
## 事件详情
领先的保险公司正在正式着手隔离人工智能相关的危险。例如,**W.R. Berkley** 在其专业险种中引入了“绝对”人工智能免责条款,包括董事及高级职员责任险 (D&O)、职业责任险 (E&O) 和信托责任险。该背书广泛旨在拒绝承保因“实际或涉嫌使用、部署或开发人工智能”而产生的任何损害。
这一转变并非理论上的;它直接回应了切实的、代价高昂的人工智能故障:
- **诽谤和毁谤:** **谷歌** 正面临一项 **1.1 亿美元** 的诉讼,该诉讼源于其人工智能生成的虚假法律指控,为人工智能驱动的诽谤确立了先例。
- **运营故障:** **加拿大航空** 被法律强制要求兑现其客户服务聊天机器人错误提供的折扣,这表明人工智能错误会产生直接的财务责任。
- **复杂欺诈:** 工程公司 **Arup** 遭受了 **2500 万美元** 的损失,此前欺诈者使用人工智能语音克隆技术冒充公司董事并授权非法交易。
## 市场影响
保险业的退出对企业人工智能的采用构成了重大障碍。如果没有财务支持来减轻风险,公司在部署人工智能解决方案时可能会变得更加保守,从而可能减缓创新和竞争发展。这创建了一个无保险的风险类别,首席风险官现在必须通过其他方式来解决。
然而,这一空白也正在催生一个专业风险管理的新市场。像 **Armilla** 和 **人工智能承保公司 (AIUC)** 这样的初创公司正在填补这一空白。这些公司正在开发新的承保标准和工具,专门用于评估人工智能模型的漏洞,旨在为这些新兴风险创建可行的保险市场。
## 专家评论
根据 **AIUC** 联合创始人 Rajiv Dattani 的说法,传统保险公司的举动主要是由“对未知的恐惧”驱动的。他建议保险可以作为治理人工智能的“巧妙的中间地带解决方案”,提供比政府监管更灵活的第三方监督层。Dattani 认为,自愿的企业承诺不足以管理人工智能风险,将专业承保定位为生态系统的关键组成部分。
## 更广阔的背景
这一趋势正在法律挑战人工智能提供商的过程中展开。包括 **谷歌**、**Meta** 和 **OpenAI** 在内的主要科技公司都面临着与其大型语言模型产生的诽谤和错误信息相关的诉讼。保险业的回应是这种风险的明确财务形式化。通过明确排除人工智能,保险公司将其视为一个独特且高风险的类别,就像网络攻击或恐怖主义一样,需要专门的保单。这种全行业的重新校准标志着企业风险管理的新篇章,其中理解和减轻人工智能特定责任正在成为业务战略不可谈判的一个方面。