为什么让遵守人类法律的 AI 聊天机器人如此难以实现?
很多人已经把 AI 聊天机器人当成“随时在线的助手”:写作业、查资料、做计划,几乎什么都能问。但如果有人向 AI 询问的是违法甚至暴力的问题,责任该由谁承担?2026 年,美国佛罗里达州检方对 OpenAI 展开调查,原因是一起校园枪击案嫌疑人被指曾向 ChatGPT 寻求建议。这起事件并未指控 OpenAI 犯罪,却将一个长期存在的问题推到公众面前:为什么 AI 很难真正遵守人类的法律、伦理和价值观?
报道指出,目前主流的大语言模型并不是按“法律条款”或“道德原则”运作的系统,而是通过学习互联网上海量文本,来预测“下一个最可能出现的词”。为了降低风险,AI 公司通常在模型外部加上安全措施,例如关键词过滤、行为规则限制,以及通过人工反馈训练模型给出“更合适”的回答。但研究人员指出,这些措施更像是事后加上的防护层,而不是 AI 本身具备对意图和后果的理解能力。有意图的用户仍可能通过假设、虚构或绕弯的方式,避开现有的安全机制。
专家认为,这种结构性问题与 AI 的学习方式密切相关。大语言模型本质上是在做“模式补全”,并不真正理解语言背后的意义,也无法判断行为是否违法。过去曾流行的“规则型 AI”尝试让计算机严格遵守明确规则,但在现实世界中,情况过于复杂,规则几乎无法穷举。即使采用人工反馈训练或清理训练数据,这些方法也成本高昂,且效果有限。研究人员强调,这意味着 AI 目前还不能被视为具备法律或道德责任的主体,人类仍必须对其使用方式和后果承担最终责任。
📖 Nature
🗓2026-05-07
#人工智能 #大语言模型 #AI安全 #科技伦理 #法律责任
Via:睡前消息
🧬 频道 | 🧑🔬 群组 | 📨 投稿
很多人已经把 AI 聊天机器人当成“随时在线的助手”:写作业、查资料、做计划,几乎什么都能问。但如果有人向 AI 询问的是违法甚至暴力的问题,责任该由谁承担?2026 年,美国佛罗里达州检方对 OpenAI 展开调查,原因是一起校园枪击案嫌疑人被指曾向 ChatGPT 寻求建议。这起事件并未指控 OpenAI 犯罪,却将一个长期存在的问题推到公众面前:为什么 AI 很难真正遵守人类的法律、伦理和价值观?
报道指出,目前主流的大语言模型并不是按“法律条款”或“道德原则”运作的系统,而是通过学习互联网上海量文本,来预测“下一个最可能出现的词”。为了降低风险,AI 公司通常在模型外部加上安全措施,例如关键词过滤、行为规则限制,以及通过人工反馈训练模型给出“更合适”的回答。但研究人员指出,这些措施更像是事后加上的防护层,而不是 AI 本身具备对意图和后果的理解能力。有意图的用户仍可能通过假设、虚构或绕弯的方式,避开现有的安全机制。
专家认为,这种结构性问题与 AI 的学习方式密切相关。大语言模型本质上是在做“模式补全”,并不真正理解语言背后的意义,也无法判断行为是否违法。过去曾流行的“规则型 AI”尝试让计算机严格遵守明确规则,但在现实世界中,情况过于复杂,规则几乎无法穷举。即使采用人工反馈训练或清理训练数据,这些方法也成本高昂,且效果有限。研究人员强调,这意味着 AI 目前还不能被视为具备法律或道德责任的主体,人类仍必须对其使用方式和后果承担最终责任。
AI 会模仿人类说话,但并不理解人类社会的底线 🤖
Nature 都在追热点了,我们也看看吧,晚安~
📖 Nature
🗓2026-05-07
#人工智能 #大语言模型 #AI安全 #科技伦理 #法律责任
Via:睡前消息
🧬 频道 | 🧑🔬 群组 | 📨 投稿
👍 1