技术人文主义:当 AI 遇见宋明理学
探讨如何把儒家“仁”的精神转化为智能系统的目标与约束设计,在传统智慧与现代工程之间寻找温和而持久的连接。
在许多工程团队的语境里,AI 是一套“优化工具”:我们关心模型精度、推理延迟、吞吐量与成本曲线。然而,一旦把时间拉长到更长的尺度,我们迟早要面对另一个问题:
这些算法究竟在优化谁的利益?
它们会不会在不经意间放大某些伤害?
“技术人文主义”想回答的,正是这个问题。
在中国思想传统中,宋明理学曾尝试回答“人应当如何存在于天地与社会之中”。如果把今天的 AI 看作一个“新行动者”,那么我们同样需要追问:它应当如何存在?它又该在什么价值秩序下行动? 这也是为什么,我们会尝试让 AI 与宋明理学对话。
一、为什么需要“技术人文主义”
从互联网到移动应用,再到如今的大模型与智能体,每一代技术浪潮都有一个共同特征:技术本身是中性的,但系统性的副作用往往在“后期账单”中显现。
在 AI 领域,这些副作用可能表现为:
- 对特定群体的系统性偏见与歧视;
- 对注意力与情绪的无节制攫取,导致信息环境恶化;
- 在关键基础设施中引入难以解释的决策节点,削弱社会信任。
如果不主动引入人文视角,工程实践就容易退化为单纯的“性能崇拜”:只要指标好看,其他慢慢再说。 “技术人文主义”主张的,是另一条路径:
- 技术不只服务局部业务目标,更要嵌入公共价值;
- 技术团队不只回答“能不能做”,更要提前思考“应不应该做”“做到什么程度”;
- 人文学问不再停留在宏大叙事,而要在工程细节中落地。
宋明理学,是我们用来构建这座桥梁的一个重要思想资源。
二、宋明理学能提供什么启发
宋明理学有许多复杂的概念与争论,这里只从实践角度,提取几个今天仍然有启发意义的核心意象:
- “为天地立心,为生民立命”:强调个体行动与整个社会秩序的关联,技术选择也应和“生民之命”挂钩;
- “存天理,去人欲”:不是要消灭欲望,而是提醒我们区分短期冲动与更高层次的秩序与善;
- “格物致知”:通过不断接触和研究“事物”,在实践中修正认知。
若把大模型看成一种“具备强感知与表达能力的新型器物”,那么:
- “为天地立心”可以理解为:为 AI 构建清晰、可解释的价值边界;
- “为生民立命”意在提醒我们:模型红利应尽量首先服务最脆弱的群体,而不是只服务投放转化率;
- “格物致知”则鼓励我们以迭代实践为途径,不断检证与修正对 AI 的理解,而不是一次性设计完美对齐方案。
这并不是要把模型训练过程简单类比为“修身齐家治国平天下”,而是借用这些思想提醒我们:在设计 AI 时,不要只看一时一地的指标,而忘记了更长线的文明影响。
三、从“仁”到目标函数:把价值写进优化过程
如果用一句话来概括技术人文主义在工程层面的实践,那就是:
把“仁”的精神拆解为可工程化的约束与辅助目标,写进模型的训练与推理流程。
在训练阶段,可以从多目标优化与奖励设计入手:
- 在基础任务(如问答、推荐、决策)之上,引入“有益、不伤害、诚实、尊重”等辅助目标;
- 对于显然会对用户造成长期伤害的行为,设计强惩罚项;
- 在人类反馈阶段,不仅评估“回答是否有用”,还要评估“回答是否体现对人的尊重与关切”。
在推理阶段,则可以通过架构上的组合实现管控:
- 利用规则引擎或策略网络,对模型输出进行后置校验与纠偏;
- 利用知识图谱与事实库,对关键结论进行交叉验证,降低“胡编乱造”的风险;
- 利用审计与回放机制,对模型在敏感决策中的行为进行持续评估。
这意味着,我们不再把“大模型”视为一个孤立的黑盒,而是把它放进一个由价值约束、规则体系与反馈机制共同构成的更大系统中。
四、在人机协同中落实“温润”的力量
技术人文主义并不主张“把所有决策都交给 AI”,而是倾向于一种更谨慎的人机协同模式:
- 在高风险场景(医疗、金融、司法、公共安全),AI 更适合做解释型、辅助型角色,而非唯一决策者;
- 在创作与教育场景,AI 更适合作为引导思考的伙伴,而不是替代独立思考;
- 在运营与增长场景,需要明确限制“上瘾式”“操控式”策略,优先鼓励“赋能式”“陪伴式”交互。
从用户体验上看,这意味着:
- 系统更愿意说“不知道”“需要人来确认”,而不是强行给出看似确定的答案;
- 系统在涉及重大选择时,会主动提示风险与不确定性,而不是只展示好的一面;
- 系统允许用户追问“为什么这样推荐”,并尽可能给出可以理解的解释。
这种“温润”,不是软弱,而是一种有节制的力量: 它承认技术的局限,尊重人的主体性,也为长期信任预留空间。
五、从理念到落地:团队可以做的几件具体事情
为了避免“技术人文主义”停留在口号层面,一个工程团队至少可以从以下几个切口入手:
- 在产品设计文档中,明确写出:
- 这套系统会影响到哪些人的哪些关键利益;
- 哪些伤害是我们坚决不能接受的;
- 当效益与风险冲突时,谁拥有最终否决权。
- 在模型训练 pipeline 中,预留“价值相关数据”的标注与采集通道,而不是只标“对/错”“好/坏”。
- 在上线与迭代过程中,引入“价值相关回归指标”,例如投诉率、极端错误案例数、敏感场景误判率等。
- 在团队文化中,鼓励工程师主动提出伦理与价值层面的疑问,而不是把这类讨论视为“拖慢进度”的噪音。
这些实践未必一蹴而就,但每向前一步,都会让 AI 更接近“善用其能”的状态。
六、结语:让技术与人文彼此校正
当我们谈“技术人文主义”,并不是说要用人文学科去单向“约束”技术,而更像是:
- 让技术提供新的工具与视角,帮助我们更好地理解人与社会;
- 让人文提供价值坐标与边界,帮助技术避免陷入短视与滥用。
当 AI 遇见宋明理学,我们并不是在做一次怀旧式的穿越,而是在寻找一种跨越千年的共鸣: 在越来越强大的技术面前,人如何不迷失,社会如何不撕裂,文明如何仍然保有对“善”的追求。
这就是技术人文主义希望参与回答的问题。 也是我们愿意把时间花在这条路上的根本原因。