近日,在Meta FAIR担任研究总监的田渊栋在某站上分享了近期一系列关于符号推理与神经网络推理两者间在不同复杂推理任务上的计算差异、性能优劣甚至未来融合统一的研究成果。
讲者开门见山的从LLM当前核心功能-复杂推理&规划入手展开,引出AI应用于复杂认识推理可能的3个渐进式演化options(Scaling Law/Hybrid System/Emerging Symbol&Neural),并首先拿Agent常见领域-旅行规划任务着手,从option1带入到option2…
在Option2的第一个子路线中,通过引用一篇EMNLP24的Demo论文对于旅行规划任务中所采用的混合整数规划(Mixed Integer Linear Programming,MILP)求解器对比与分析了symbol&neural在推理求解性能及Agent灵活性的运用探索。- 这里算是对上述Option2的一小步探索与尝试,即尝试将形式化的符号推理范式嵌入拼接到DNN中来,但其中的形式化符号内涵并未展开。
随后,在Option2的第二个子路线中,讲者抛出了近期的系列工作:采用Searchformer和Deformer形式化求解器应用于经典的走迷宫和推箱子的复杂推理与规划问题。这里的形式化求解器即大家所熟知的A*,并通过实验印证solution-only model与search-augmented model两种推理范式Scaling Law的不同 (注:在这里个人认为并不单单是两种范式下scaling law的不同,而本质是由于来自底层数据所呈现的分布上差异造成的)。
当然大家这里可以很自然的想象到:对于后者的范式,可以采用RL思想继续探索采样与利用,并进一步寻求最优/短路径以增强模型,实现超越A*求解器的思路,到这里相信大家也看到了些许o1的影子;)
- 个人观点:上述本质是进一步参数化压缩模型内的neural链接,这里未来亦将会有很大的探索空间和研究价值,也与本讲座的Option3有一定的关联…另外,在这里其实我个人也有着对这种进一步的对数据采样到模型压缩路径的不安,即是这种采样与压缩也许会扰乱真实世界中所固有的泛化涟漪或会给模型掌握真实流形分布带来挑战。
以上我们针对讲者Option2中的前两种将符号与神经推理集成的路线和方法进行了讲述与思考延展:可以说第一种是神经网络在test-time以符号为导向的Tool use,第二种是依赖符号化本身内在的形式化机理在train-time侧对神经网络的数据反馈与知识压缩,即现在比较热的类o1范式 - RL—CoT/MCTS/RM→LLMs...然而我们也发现上述两种融合路线不管在任务“推理时”还是“训练时”并未全完统一,即至少在任务构造时不那么的End2End,只能说为符号与神经网络推理发挥各自优势实现融合提供了一种技术上的可能与理论上的衔接。
在Option2的第三个子路线里,讲者通过举例一个Embedding Table Placement任务用以阐释存在于Original Space的非线性优化问题如何映射为Surrogate optimization线性问题求解并达到原有非线性问题的最优解,并讲述了在每个步骤可微的前提下采用的反向传播算法进行“End to End”的Gradient-Based Optimization即梯度下降,以优化最终的映射函数,最终将神经网络与符号表示串联起来,实现反向传递,即某种程度上的“End2End”。
基于这条路线,讲者进一步引入并介绍了其工作进展-SurCo算法及其几个变种:SurCo-zero/SurCo-prior/SurCo-hybrid,并将任务扩展到另一个需要利用麦克斯韦方程和傅立叶频域变换双反馈对物理现象进行真实模拟的复杂设计问题——逆向光子设计(Inverse Photonic Design)任务上,以指出此种路线或方法的有效性及所具备的技术前景和应用价值,尝试构建符号与神经网络推理阶段性融合与统一范式。
在结合上述Option2对于构建Symbol&Neural Hybrid Syste三种路线的讲述后,最终,讲者抛出了其终极命题思考:“Does Deep Model Actually Converge to Anything Symbolic?”即神经网络求解在深层结构上与符号系统的统一,以进一步探索符号和神经推理的底层逻辑与联系。
回顾人类AI发展历史,众所周知,学术界上一直存在着以Allen Newell和Herbert Alexander Simon为代表的“符号主义”和以Warren McCulloch和Walter Pitts为代表并被当前深度学习三巨头发扬光大的“连接主义”两大学派。这两大学派在人们以往对人工智能发展认知结构下是并行且无关的,甚至两派在观点上相互对立。
然而,随着人们对人工智能与认知科学的进一步探索,会发现这两者间在底层结构上存在着深刻的内涵联系,如本篇讲者田渊栋所述,通过对神经网络收敛解的研究,会发现其中其实存在着符号结构,这个符号结构可以通过理论构建出来,并且会发现这个符号结构与初始下降解的结构是能对应的。也许最终会发现,梯度下降解出来的解可能正通向一个可符号形式化的解释结构。
讲者先是通过抛出当下LLM是否在进行真正的推理又或是检索以往的知识两派悬而未决的争论出发,尝试探索神经网络在训练与推理求解过程中是否学习到符号形式化底层结构。 令人惊喜的是,在对两个数进行加法取模运算学习过程中,DNN习得了一个傅立叶变换的形式化近似(当然这种现象在之前已被很多学者所观察,我认为在模型的正反向传播中对于最终的梯度求导与下降优化过程与模型激活及损失函数或许存在着某种符号化的密切关联,我想这也是KAN网络寄希望于尝试通过Spline曲线的嵌入来进行某种符号形式化表征的某种初衷与内涵吧哈哈…)。
更进一步的,讲者列举了一些观察性实验以验证DDN所习得的符号化代数结构如傅立叶频域变化下的对称性结构,并将MSE loss入手拆解变换形式,再回到将神经网络通过半群半环结构拼接即群环上相×以构造目标函数全局最优解,并最终验证所构造出的解,其结构与真正通过梯度下降得到的解的结构的一致性。
正如讲者最后所述:也许存在另一条路径,即通过代数结构的方式来得到归类SN的解。意味着也许有一天,我们可以在梯度下降之外,通过代数方法得到最优解,亦或能够将符号系统和神经网络系统最终结合起来,形成一个统一的整体,并最终我们能够打开这个黑盒子,真正理解其中的运作机制,并用这些理解的经验来指导我们的训练和整个系统的构建。