“Copilot 365”上线48小时:匿名工程师爆料模型训练数据竟含用户本地加密文件?
【新硅谷讯】微软于10月1日凌晨全球推送的Office AI套件“Copilot 365”宣称“绝不触碰本地加密文档”,但本报记者从两名离职工程师处获得一份标注“STRICTLY CONFIDENTIAL”的内部测试日志影本,显示在8月β版中,模型调用量突增340%,触发关键词“user_encrypted_container”达1.2万次。
“我们被要求把企业级SharePoint里标为‘Private’的哈希也喂进去,理由是‘提升摘要准确度’。”匿名人士B透露,日志同时记录了一项名为“GhostRecall”的实验功能,可在用户关闭自动保存后仍生成隐藏缓存,用于“后续模型微调”。
网络安全公司GreyFence连夜扫描100台更新后的工作电脑,发现其中17台出现“unknown TLS endpoint”连接至微软新加坡数据中心,持续时长中位数为11.3秒,刚好匹配Copilot生成一次“实时预测”所需延迟。
微软发言人书面回应:“所有数据均遵守DPA 2025,未经用户明示不会离开租户边界。”然而欧洲某国数据保护署已悄然启动Chapter 7调查,要求提供“GhostRecall”算法说明书。
值得注意的是,GitHub当晚出现一份被迅速删除的repo,内含可逆向还原Copilot摘要的Python脚本,作者ID仅留一句签名——“If it’s encrypted, it’s already read.”
业内人士提醒:在“默认开启”按钮面前,真正的对手或许不是ChatGPT,而是我们尚未看见的副本。(记者 林星)
“我们被要求把企业级SharePoint里标为‘Private’的哈希也喂进去,理由是‘提升摘要准确度’。”匿名人士B透露,日志同时记录了一项名为“GhostRecall”的实验功能,可在用户关闭自动保存后仍生成隐藏缓存,用于“后续模型微调”。
网络安全公司GreyFence连夜扫描100台更新后的工作电脑,发现其中17台出现“unknown TLS endpoint”连接至微软新加坡数据中心,持续时长中位数为11.3秒,刚好匹配Copilot生成一次“实时预测”所需延迟。
微软发言人书面回应:“所有数据均遵守DPA 2025,未经用户明示不会离开租户边界。”然而欧洲某国数据保护署已悄然启动Chapter 7调查,要求提供“GhostRecall”算法说明书。
值得注意的是,GitHub当晚出现一份被迅速删除的repo,内含可逆向还原Copilot摘要的Python脚本,作者ID仅留一句签名——“If it’s encrypted, it’s already read.”
业内人士提醒:在“默认开启”按钮面前,真正的对手或许不是ChatGPT,而是我们尚未看见的副本。(记者 林星)