人工智能与法律分析
内容摘要
文章提出了“合同隐写术”这一新风险,其中故意构造的法律语言对人类读者来说是正常的,但通过利用大型语言模型(LLM)的已知漏洞(如提示注入和语义启动),系统性地扭曲了人工智能的合同分析。这种操纵利用了人类情境理解与LLM在向量空间中进行统计模式匹配之间的根本差异。文章详细介绍了四种技术:积极联想启动、权威标记、嵌入式提示结构和认知锚定。作者阐述了如何用在统计上带有积极关联的短语(例如“合理的商业结果”)来饱和文本,从而将模型推向有利的解释,实际上为同一份文件创造了两种不同的解读——一种给律师,一种给机器。当前的防御措施大多无效,因为操纵性短语在正常使用中也常常是合法的。这种不对称性有利于复杂的行为者,并可能破坏法律技术所承诺的民主化前景。作者认为法律原则必须适应,可能需要承认“技术上的不合理性”,并建议立即采取防御措施,如多模型冗余和加强人类警惕性。
(来源:Kancelaria Prawna Skarbiec)