AI采用率创历史新高,信任度却跌到历史新低。这种矛盾里藏着机会。

3秒速览
AI使用率73% 信任度21% 有害55% vs 有益33% "信任设计"就是竞争力

这些数字在说什么?

这是Quinnipiac大学在2026年3月30日发布的全国性调查结果。他们访问了约1,400名美国成年人,了解他们对AI的态度,结果相当矛盾。

76%
"很少"或"偶尔"信任AI
73%
至少用过一次AI工具
55%
认为AI对日常生活有害

Quinnipiac的Chetan Jaiswal教授是这样总结的:"51%的人用AI做调研,但只有21%的人大体信任AI生成的信息"。也就是说,人们把AI当工具来用,但对它给出的结果并不真正信服。

按使用场景看,调研类51%(去年仅37%,涨幅惊人),写作28%,工作/学业27%,数据分析27%,图像生成24%。完全没用过AI的人从去年的33%降到了27%。

但情绪面恰恰相反。对AI"非常期待"的人只有6%。62%说"不期待",80%表示"担忧"。相比去年,负面看法反而增加了。

有什么不同?

2025年4月2026年3月
AI调研使用率37%51% (+14个百分点)
未使用AI的人33%27% (-6个百分点)
担心岗位减少56%70% (+14个百分点)
感觉自己岗位受威胁21%30% (+9个百分点)
认为AI有害-55%

Z世代这一块特别值得关注。他们是对AI工具最熟练的一代,却也是对劳动力市场最悲观的一代。81%的Z世代认为AI会减少岗位。Quinnipiac的Tamilla Triantoro教授这样解读:"AI使用能力和乐观情绪正在朝相反的方向走"

65%的美国人反对在自家社区建AI数据中心,66%觉得企业在AI使用上透明度不够。同样比例(66%)认为政府对AI的监管不足。

Pew Research的调查也呼应了这一点。只有17%的美国人认为未来20年AI会带来正面影响。

对产品人的启示

用户在用AI,但并不信任AI。这不是危机,而是机会。做出"值得信任的AI",就能形成差异化。来源标注、置信度评分、人工复核选项这类"信任设计",正是2026年的核心竞争力。

上手指南:如何设计信任

  1. 展示来源
    在AI生成的结果里标明"这是从哪里来的"。Perplexity靠行内引用成功,原因正是这个。
  2. 显示置信度
    像"本回答置信度87%"这样,告诉用户AI有多确定,用户就能自己判断是否采信。
  3. 留出人工复核选项
    关键决策场景,提供"由人确认"按钮。Klarna用AI替代700人后又重新招人,就是这个教训。
  4. 把透明度作为营销点
    主动公开你在用AI、以及具体怎么用。毕竟66%的人正在抱怨企业透明度不够。
  5. 用opt-in作为默认
    相比GitHub的opt-out(默认选入,用户主动退出),选择像Anthropic那样的opt-in(默认不选入,用户主动加入),能显著提升信任。一个小小的选择,就能拉开品牌信任度。

美国人并不是全盘拒绝AI,他们是在发出警告。警告说:在透明度太少、监管太少、答案太少的情况下,技术推进得太快了。

— Tamilla Triantoro,Quinnipiac大学教授