您当前位置: 首页 ·软件教程 · 正文

达特茅斯学院研发新型AI工具:能伪装人类完成问卷,破解99.8%检测系统

发布时间:2025-11-28 16:00:06

据404 Media报道,达特茅斯学院政府学副教授、极化研究实验室负责人肖恩·韦斯特伍德近期于《美国国家科学院院刊》(PNAS)发表的一项新研究表明,在线调查研究作为众多科学研究里数据收集的基本方式,正遭受大语言模型带来的严峻威胁。

韦斯特伍德研发出一款叫做“自主合成应答者”的AI工具,该工具不仅可以回答调查问题,还展现出近乎完美绕过当下最先进机器人检测手段的能力。

论文指出,这款 AI 智能体成功避开检测的概率高达 99.8%。韦斯特伍德在新闻稿中表示:“我们再也不能确信调查的答复来自真正的人类了。机器人污染的数据可能会破坏整个知识体系。”

这款 AI 智能体还成功规避了“反向禁忌”问题。“反向禁忌”通过设计任务来识别非人类行为者,大模型能轻松完成这些任务,人类则几乎不可能完成。

论文《大语言模型对在线调查研究的潜在生存威胁》指出:一旦推理引擎选定了回答,第一层就会执行专注于模仿人类的相应行动。为了躲避自动化检测,其模拟了与该个体教育水平相符的阅读时间,生成类似人类的鼠标移动,逐字输入开放式问题的答案,并包括合理的打字错误和更正。该系统还设计了 reCAPTCHA 等绕过反机器人措施的工具,而这通常是自动化系统的一个障碍。

论文还表示,AI 可以模拟“完整的人口统计特征”,意味着理论上任何人都可以通过生成特定人口特征的 AI 干预,操控在线调查的结果,而且甚至仅仅几个虚假回答就足以影响调查的结果。

论文提到,在 2024 年大选前的七大主要民意调查中,仅需加入 10 到 52 个虚假 AI 回答,就足以改变预测结果。这些虚假回答的生成成本非常低,每个仅需五美分,而人类受访者通常获得 1.50 美元(注:现汇率约合 10.7 元人民币)的酬劳。

论文使用 OpenAI 的 o4-mini 进行测试,也使用了 DeepSeek R1、Mistral Large、Claude 3.7 Sonnet、Grok3、Gemini 2.5 Preview 等其他模型,证明该方法适用于不同的大模型。该智能体通过接收约 500 字的提示,了解要模仿的个性,并按人类的方式回答问题。

论文指出,研究人员可以通过多种方式应对 AI 智能体污染调查数据的威胁,但每种方式都有权衡。例如,研究人员可以对调查参与者进行更多的身份验证,但随之而来的就是隐私问题。论文还建议,研究人员应更加透明地说明调查数据的收集方式,并考虑采用更受控的参与者招募方法,如基于地址的抽样或选民文件。

论文得出结论,要保证民意调查与社会科学研究始终保持有效性,就必须探索并创新出能够应对AI时代快速发展所带来挑战的研究设计。

精选攻略
查看更多 +
火爆手游榜
  1. 1 奏耐天津

    奏耐天津

    2026-03-19 17:29:07更新
    查看
  2. 2 CSGO移动版

    CSGO移动版

    2026-03-19 17:27:07更新
    查看
  3. 3 寻还手游

    寻还手游

    2026-03-19 17:25:12更新
    查看
  4. 4 照片拼接P图编辑

    照片拼接P图编辑

    2026-03-19 17:24:09更新
    查看
  5. 5 生存战争3

    生存战争3

    2026-03-19 17:21:07更新
    查看
  6. 6 富豪侦探游戏正版

    富豪侦探游戏正版

    2026-03-19 17:13:06更新
    查看
  7. 7 甜气

    甜气

    2026-03-19 17:10:09更新
    查看
  8. 8 数字高手赛

    数字高手赛

    2026-03-19 17:10:09更新
    查看
  9. 9 完全毁灭官方版

    完全毁灭官方版

    2026-03-19 17:08:10更新
    查看
  10. 10 职业病诊断医师考试聚题库

    职业病诊断医师考试聚题库

    2026-03-19 17:05:11更新
    查看
专题推荐
更多