|
随着 ChatGPT 等 AI 工具越来越普及,许多 MSU 学生每天在用它写作、备课或规划学习。但你是否发现:AI 有时候很准,有时候又很离谱? 最近,密歇根州立大学(MSU)研究团队发布一项新成果:他们开发了一个能够侦测 AI 回答是否可信的工具 —— “AI Trust Meter”。 🔍 为什么需要“AI可信度检测”?新闻中提到的 MSU 学生 Chloe 与 Maya 都表示:
AI 很好用,但有时答案 完全不对劲。 MSU 研究员 Reza Khan Mohammadi 正在研究一个核心问题: “我们能信任 AI 吗?如果能,到底什么时候可以信任?”
🧪 MSU 开发的 “AI Trust Meter” 如何工作?研究员采用一种简单但有效的方法: ✔ 研究方法:对同一个问题反复提问✔ 已测试高风险领域 📉 研究结论:AI 是否可靠?研究员给出的答案是: “如果必须给出单一答案:不,AI整体上并不可靠。”
他强调,AI 适合用在 低风险场景,例如找电影、生成草稿、找灵感。
但涉及严肃内容时,仍需验证。 即便有 Trust Meter,一些用户(例如 Bath Township 的 Anderson)仍表示:
“我更希望看到确切来源,所有信息都需要交叉核实。” 💬 MSU 华人论坛建议:何时应该信任 AI?可以较为放心的场景: 搜索娱乐推荐(电影/餐厅等) 写作草稿、润色、模板 语言学习 提供思路而非事实结论
必须谨慎的场景: 医疗、药物、健康建议 财务规划、投资 法律、签证、移民相关 学术引用、数据真实性 涉及个人决策的内容
🎓 MSU 研究的意义这项工具代表着 MSU 在 AI 伦理与安全领域的重要探索,提醒我们:
AI 不是万能、不是全知、不是权威。
它是工具,而不是最终答案。
|