>文章概要:现代大语言模型(LLM)服务越来越依赖复杂的、通常是抽象的操作,例如多步骤推理和多智能体协作,以生成高质量的输出。虽然用户是根据代币消耗和 API 使用情况计费的,但这些内部步骤通常是不可见的。我们将此类系统称为商业不透明 LLM 服务(COLS)。本立场文件强调了 COLS 中出现的新兴责任挑战:用户为无法观察、验证或质疑的操作付费。我们正式化了两个关键风险:数量膨胀,即代币和调用次数可能被人为夸大;质量下降,即提供商可能悄悄地用成本更低的模型或工具进行替代。解决这些风险需要一套多样化的审计策略,包括基于承诺、预测、行为和签名的方法。我们进一步探讨了水印和可信执行环境等互补机制的潜力,以增强可验证性而不损害提供商的保密性。我们还为 COLS 和用户提出了一个模块化的三层审计框架,以实现执行过程中的可信验证和安全。实现日志记录以及面向用户的可审计性,同时不暴露专有内部信息。我们的