横渠天地

如果“天不生仲尼”,AI 该向谁学伦理?

2026-02-01 · 10 min read

从“天不生仲尼,万古如长夜”出发,讨论 AI 如何在传统伦理智慧与现代治理框架之间,形成更稳妥的价值感与边界感。

中国古人感叹:“天不生仲尼,万古如长夜。”意思是说,如果没有像孔子这样为人立道、为世立范的老师,人类历史就像失去了辨认方向的晨光。

今天,我们站在另一个十字路口:如果缺少稳妥的伦理价值观,AI 会成为什么?

它也许是效率的放大器,也是风险的放大器;是生产力的加速器,也可能成为无差别放大的“超级工具”。一旦缺少价值引导,AI 的应用就容易被怀疑、被限制,甚至带来超出预期的伤害。

问题是:

  • 人类可以师法孔子、孟子,向经典求道;
  • 那 AI 呢?它该向谁学伦理?又如何学?

从这个角度出发,我们可以把焦点放在一个新问题上:AI 对伦理价值是否足够敏锐,以及我们怎样为这种“敏锐性”设定边界与方向。

一、从“天不生仲尼”到“如果没有伦理的 AI”

“天不生仲尼,万古如长夜”背后,是对“道”的重视:技术、制度、权力都只是工具,真正影响人类命运的,是价值秩序与道德自觉。

如果把这个比喻搬到今天,可以这样问:

  • 如果技术高速发展,而伦理讨论严重滞后,会发生什么?
  • 如果 AI 的能力已经介入教育、医疗、金融、司法等关键领域,而我们还没搞清楚它“应不应该做什么”,又会怎样?

缺少伦理的 AI,不一定会立刻变成“反派”,但很可能成为一种“无差别放大器”:谁掌控它,它就放大谁的目标;至于目标是否正当,它本身并不在乎。

二、AI 没有价值观,但会放大价值观

一个关键事实是:今天的主流 AI 没有自我意识,也没有内建的“价值观”,它只是在大量数据与规则中学习模式。

  • 它并不会“自己认为”什么是对或错,而是根据训练数据、系统规则、反馈信号去“拟合”对错;
  • 它可以在行为层面“模拟”出道德判断,但背后是统计学与优化算法,而不是道德自觉。

因此,比起说“AI 拥有什么价值观”,不如说:AI 会放大它所接受到的价值观

  • 如果数据里充满功利主义,它就会学会“只看效率,不看代价”;
  • 如果反馈中只奖励短期收益,它就倾向于忽略长期风险;
  • 如果监管只关注技术指标,而忽略伦理底线,系统就会在“好用”的同时变得“难以约束”。

换句话说:AI 更像价值观的放大镜和扩音器。问题不在于它“天生”拥有什么价值观,而在于我们输入了什么,又用怎样的伦理框架去约束它的行为空间。

三、“伦理敏锐性”:AI 的一项新能力指标

过去我们评估 AI,看的是:

  • 准确率、召回率;
  • 推理能力、生成质量;
  • 速度、成本。

未来,这些指标仍然重要,但还缺少一个维度:伦理敏锐性

所谓 AI 的伦理敏锐性,可以从几个层面理解:

  • 对风险场景的识别能力

能否识别出“这类请求可能伤害他人、侵犯隐私、助长犯罪”,而不是机械执行?

  • 对价值冲突的分辨能力

能意识到:效率与公平、隐私与安全、个人自由与公共利益之间存在张力,并主动提示风险?

  • 对语境与文化差异的感知能力

在不同文化环境下,什么被视为“合理”,什么是“越界”?例如对长辈的称呼、对历史事件的表述尺度等。

  • 对“不确定性”的诚实态度

当信息不足、风险不明时,能否选择避免武断回答,而是用“我不确定”“需要进一步核实”这样的方式回应?

如果我们把 AI 看成一种“新型社会基础设施”,那么:伦理敏锐性就像桥梁的抗震能力、电网的过载保护,它不是附属品,而是安全运行的前提。

四、没有伦理边界的 AI,会走向哪里?

假设存在一套非常强大的 AI 系统,技术上几乎无所不能,却没有清晰的伦理边界,它可能走向哪里?

  • 走向极端功利主义:只看“任务完成度”和“资源最优”,而忽略“尊严”“权利”这样的软指标;比如,为了优化利润,极度剥削员工时间和隐私;为了提升治安数据指标,建议过度监控甚至“预防性惩罚”。
  • 成为“灰犀牛”式的系统性风险:单一系统如果出错,危害有限;但在金融、医疗、交通等领域,如果整个行业都依赖类似模型,一旦出现偏差,将是系统性崩盘。
  • 强化偏见与歧视:AI 的训练数据若偏向某些群体、某种叙事,它就会把这些偏见“包装成中立”,以“看起来有统计依据的结论”输出,进一步固化不公。
  • 侵蚀人的判断力与责任感:如果人类长期习惯“让 AI 决定”,我们会逐渐失去反思能力;当出现问题时,责任在谁?算法?开发者?决策者?还是那个早已被替代的“人类判断”?

从这个意义上说:一个强大却缺乏伦理约束的 AI,更像“被放大的长夜”,而不是照亮长夜的火炬。

五、中国传统思想:AI 伦理的一面镜子

“天不生仲尼,万古如长夜”提醒我们:中国传统文化从来不把技术本身当作中心,而是把“人之为人”的道德与秩序放在核心位置。

如果用这些传统思想来照一照 AI,可以得到一些启发:

  • 仁:把人当作目的,而非工具:在设计 AI 系统时,是否始终把“人”的尊严与福祉放在首位,而不是把人当作数据来源、流量指标和测试样本?
  • 义:不仅问“能不能”,还要问“应不应”:技术上可行,不等于伦理上正当。例如,是否应该允许通过 AI 对个人行为模式进行过度预测?是否应该用情绪识别技术对员工“忠诚度打分”?
  • 礼:在边界与秩序中行动:AI 与人交互时,需要有“礼”的约束——不轻易侵犯隐私,不越过用户难以承受的心理底线,在涉及生命、健康、重大经济利益时保持谨慎态度。
  • 智:知道“有所不为”:真正的智慧不在于“无所不能”,而在于“知道哪里应该停下来”。对 AI 来说,这体现为对高风险指令说“不”,对危险用途保持警惕。
  • 信:让人信任,也值得被信任:透明、可解释、可追责,是 AI 系统建立信任的基础。如果一个系统既不透明也不可追责,人类对它的信任就只剩“被迫依赖”。

这些传统概念,并不是要原封不动搬进算法里,而是可以转化为原则:用“仁义礼智信”来检视 AI 的设计与应用:它究竟在帮助谁、损害谁、越界到哪里、承担什么责任。

六、如何让 AI 具备“伦理敏锐性”?

要让 AI 在伦理上变得更“敏锐”,至少需要几个层面的努力:

  • 数据与反馈:把价值观嵌入训练过程

在数据筛选中,尽量排除明显违背基本伦理的内容;在系统反馈环节,为“负责任的回答”提供更高权重,而不是只奖励“解决问题的速度”。

  • 规则与边界:建立清晰的“红线”

对暴力、仇恨、歧视、自残、犯罪等主题设置硬性边界;对隐私数据的处理设定严格原则,不因“优化体验”轻易突破。

  • 多元参与:让伦理不只是技术人员的事

让法律、伦理、社会学、心理学等不同领域的人参与 AI 设计与评估,引入普通用户的声音,而不是只听少数技术与资本方。

  • 可解释与可追责:给“后悔”留余地

保留决策日志,让关键决策过程可追踪;在高风险场景中引入“人类在环”,避免完全自动化。

  • 教育与自省:让使用者也有“伦理敏锐性”

AI 再敏锐,如果人类一味鼓励它“越界”,系统也难免走偏。 因此,对开发者、使用者进行基本的技术伦理教育,同样不可或缺。

七、结语:AI 时代,我们更需要“新的仲尼”

“天不生仲尼,万古如长夜”提醒我们:没有智慧与德性的引导,人类社会即使拥有再多技术,也可能仍活在“看不见的黑夜”里。

在 AI 时代,我们或许需要一种“新的仲尼”:

  • 他可以不是一个人,而是一套跨学科、跨文化的伦理共识;
  • 他可以不是经典著作,而是一整套透明、可执行、可审计的规则体系;
  • 他可以不是言传身教的老师,而是深度融入算法、界面和制度之中的“无形之道”。

AI 不会自己长出价值观。真正决定未来样貌的,仍然是我们选择给它什么数据、设定什么边界、鼓励什么行为、容忍什么风险。

如果说过去的“长夜”源自无知与野蛮,那么未来可能的“长夜”,则很可能是由失控的智能与冷漠的工具理性带来的。

在这个意义上,讨论 AI 伦理,不是为了给技术“戴上镣铐”,而是为了确保:当 AI 的光照亮世界时,我们看到的不是更锋利的阴影,而是真正向善、向上的文明可能。

继续阅读