AI采用率创历史新高,信任度却跌到历史新低。这种矛盾里藏着机会。
这些数字在说什么?
这是Quinnipiac大学在2026年3月30日发布的全国性调查结果。他们访问了约1,400名美国成年人,了解他们对AI的态度,结果相当矛盾。
Quinnipiac的Chetan Jaiswal教授是这样总结的:"51%的人用AI做调研,但只有21%的人大体信任AI生成的信息"。也就是说,人们把AI当工具来用,但对它给出的结果并不真正信服。
按使用场景看,调研类51%(去年仅37%,涨幅惊人),写作28%,工作/学业27%,数据分析27%,图像生成24%。完全没用过AI的人从去年的33%降到了27%。
但情绪面恰恰相反。对AI"非常期待"的人只有6%。62%说"不期待",80%表示"担忧"。相比去年,负面看法反而增加了。
有什么不同?
| 2025年4月 | 2026年3月 | |
|---|---|---|
| AI调研使用率 | 37% | 51% (+14个百分点) |
| 未使用AI的人 | 33% | 27% (-6个百分点) |
| 担心岗位减少 | 56% | 70% (+14个百分点) |
| 感觉自己岗位受威胁 | 21% | 30% (+9个百分点) |
| 认为AI有害 | - | 55% |
Z世代这一块特别值得关注。他们是对AI工具最熟练的一代,却也是对劳动力市场最悲观的一代。81%的Z世代认为AI会减少岗位。Quinnipiac的Tamilla Triantoro教授这样解读:"AI使用能力和乐观情绪正在朝相反的方向走"。
65%的美国人反对在自家社区建AI数据中心,66%觉得企业在AI使用上透明度不够。同样比例(66%)认为政府对AI的监管不足。
Pew Research的调查也呼应了这一点。只有17%的美国人认为未来20年AI会带来正面影响。
对产品人的启示
用户在用AI,但并不信任AI。这不是危机,而是机会。做出"值得信任的AI",就能形成差异化。来源标注、置信度评分、人工复核选项这类"信任设计",正是2026年的核心竞争力。
上手指南:如何设计信任
- 展示来源
在AI生成的结果里标明"这是从哪里来的"。Perplexity靠行内引用成功,原因正是这个。 - 显示置信度
像"本回答置信度87%"这样,告诉用户AI有多确定,用户就能自己判断是否采信。 - 留出人工复核选项
关键决策场景,提供"由人确认"按钮。Klarna用AI替代700人后又重新招人,就是这个教训。 - 把透明度作为营销点
主动公开你在用AI、以及具体怎么用。毕竟66%的人正在抱怨企业透明度不够。 - 用opt-in作为默认
相比GitHub的opt-out(默认选入,用户主动退出),选择像Anthropic那样的opt-in(默认不选入,用户主动加入),能显著提升信任。一个小小的选择,就能拉开品牌信任度。
美国人并不是全盘拒绝AI,他们是在发出警告。警告说:在透明度太少、监管太少、答案太少的情况下,技术推进得太快了。
— Tamilla Triantoro,Quinnipiac大学教授




