AI+组合优化 |机器学习顶会ICLR/ICML/NeurIPS'23最新进展-MIP求解篇(附原文源码)

本文涉及的产品
实时计算 Flink 版,5000CU*H 3个月
检索分析服务 Elasticsearch 版,2核4GB开发者规格 1个月
大数据开发治理平台 DataWorks,不限时长
简介: 本文梳理了ICLR 2023、ICML 2023、NeurIPS 2023有关机器学习+混合整数规划问题求解加速求解加速的研究成果,总共包含8篇文章。

2000元阿里云代金券免费领取,2核4G云服务器仅664元/3年,新老用户都有优惠,立即抢购>>>


阿里云采购季(云主机223元/3年)活动入口:请点击进入>>>,


阿里云学生服务器(9.5元/月)购买入口:请点击进入>>>,


ICLR、NIPS和ICML是人工智能领域的三个顶级学术会议,以下是它们的介绍:

ICLR (International Conference on Learning Representations) 是一个聚焦于深度学习和表示学习领域的国际性学术会议,由深度学习三巨头之中的Yoshua Bengio和Yann LeCun牵头创办,2013年开始每年举办一次,已经得到学术研究者们的广泛认可,被认为是深度学习领域的顶级会议。

NeurIPS (Conference on Neural Information Processing Systems) 是一个主要关注神经网络和机器学习领域的大型学术会议,固定在每年的12月举行。它提供了一个交流和展示最新研究成果的平台,吸引了世界各地的研究人员和从业者。NIPS会议涵盖的主题广泛,包括深度学习、强化学习、神经网络、模式识别等,是该领域的顶会。

ICML(International Conference on Machine Learning)是一个专注于机器学习领域的国际性学术会议,创办于1980年,每年6月中下旬举行。会议包括主题演讲、技术报告、海报展示等环节,旨在促进学术界和工业界之间的交流与合作。ICML覆盖了机器学习的多个方向,包括监督学习、无监督学习、强化学习、集成学习等,是机器学习领域的顶会。

本文梳理了ICLR 2023、ICML 2023、NeurIPS 2023有关机器学习+混合整数规划问题求解加速求解加速的研究成果,总共包含8篇文章。


A GNN-Guided Predict-and-Search Framework for Mixed-Integer Linear Programming ICLR, 2023
论文地址:arxiv.org/abs/2302.05…
论文源码:github.com/sribdcn/Pre…
论文摘要:混合整数线性规划(MILP)被广泛用于建模组合优化问题。在实践中,部分业务场景所产生的MILP实例通常仅在优化目标或约束项的系数上有所差异,并且机器学习算法具备识别相似MILP实例之间共同模式的能力。在这项工作中,我们将机器学习跟优化算法结合起来,提出了一种新颖的预测和搜索框架,以有效地识别高质量的可行解。具体而言,我们首先利用图神经网络预测每个变量的边际概率,然后在围绕初始预测解所定义的合适球体内搜索最佳可行解。我们在公开的标准数据集上进行了大量实验,结果表明我们提出的框架在primal gaps这个指标上相比开源求解器SCIP以及商业求解器Gurobi分别提升了51.1%和9.9%。


On Representing Mixed-Integer Linear Programs by Graph Neural Networks ICLR, 2023
论文地址:arxiv.org/abs/2210.10…
论文源码:github.com/liujl11git/…
论文摘要:虽然混合整数线性规划(MILP)的求解通常是NP-hard的,但在过去的二十年里,实际应用中的MILP的求解效率大致获得了100倍的提升。然而,随着问题规模的增加,很多类型的MILP很快变得无法解决,这促使研究人员寻找新的加速技术来处理这些MILP。借助深度学习算法,研究人员取得了显著的进展,其中不少研究成果是通过将图神经网络(GNN)应用于求解MILP的各个阶段(例如初始解构建、分支定界变量/节点选择等)而获得的。然而,我们的工作揭示了1个根本的局限性:过往工作提出的图神经网络模型会同等对待存在可行解以及不存在可行解的MILP,这说明它们刻画通用MILP的能力还存在缺陷。接着,通过将MILPs限制为不可展开的问题或添加随机特征,我们发现特定的GNNs能够可靠地预测MILP的可行性、最优目标值和最优解,且能达到预期的精度。最后,我们进行了小规模的实验来验证前面的理论发现。


Learning Cut Selection for Mixed-Integer Linear Programming via Hierarchical Sequence Model ICLR, 2023
论文地址:arxiv.org/abs/2302.00…
论文源码:github.com/MIRALab-UST…
论文摘要:割平面法是解决混合整数线性规划问题(MILPs)的核心算法之一。然而,割平面法的求解效率严重依赖两个关键问题: P1-优先选择哪些切割、P2-选择多少个切割。虽然很多MILP求解器通过手动设计的启发式方法解决了P1和P2,但机器学习提供了1个有望从特定业务场景所收集的MILPs中学习更有效的启发式方法的途径。然而,大部分现有的机器学习方案侧重于学习优先选择哪些切割,而忽视了切割数量的重要性。此外,我们从实验结果中观察到,切割的选择顺序-P3 对解决MILPs的效率也有着显著影响。为了应对以上的挑战,我们提出了一种新颖的层次序列模型(HEM),其核心思想是通过强化学习学习切割选择策略。具体而言,HEM包含两个层次的模型:高层次模型,负责学习合适的切割数量;低层次模型,将切割选择任务转化为1个序列到序列的学习问题,在高层次模型确定切割数量的前提下学习有序子集的选择。据我们所知,HEM是第1个从数据驱动的角度同时解决切割选择中3个核心问题的方案。实验证明,与人工设计以及基于机器学习的基线相比,HEM在合成以及来自真实业务的大规模MILPs(包括MIPLIB 2017)上显著提高了MILPs的求解效率。此外,实验结果同时表明了HEM能有效地求解比训练阶段见过的规模更大的MILPs.


Searching Large Neighborhoods for Integer Linear Programs with Contrastive Learning ICML, 2023
论文地址:arxiv.org/abs/2302.01…
论文源码:github.com/facebookres…
论文摘要:整数线性规划(ILPs)是用于建模和解决大量组合优化问题的强大工具。最近的研究表明,经典的启发式算法大邻域搜索(LNS)能够比分支定界(Branch and Bound)更快地找到ILPs的高质量可行解。然而,如何找到合适的启发式方法来最大化LNS的求解性能仍然没有很好地解决。在本文中,我们提出了一种基于对比学习(Constrastive Learning)的新颖方案CL-LNS。在好几个标准ILP benchmarks上,该方案能在primal gap、primal intergal等核心指标上取得sota。具体而言,CL-LNS会先从1个求解效率较慢但能获取较优解的专家(经典的启发式算法)中收集正负样本,然后通过对比学习这种范式学习出1个更有效的启发式算法。此外,我们还使用图注意力网络以及更丰富的特征来进一步提高CL-LNS的性能。


GNN&GBDT-Guided Fast Optimizing Framework for Large-scale Integer Programming ICML, 2023
论文地址:openreview.net/forum?id=tX…
论文源码:github.com/thuiar/GNN-…
论文摘要:最新的基于图神经网络(GNN)和大邻域搜索(LNS)的两阶段优化框架在大规模整数规划问题(IPs)求解中非常流行。然而,该框架不能有效地利用GNN所产出的包含空间信息的embedding,而是仍然严重依赖LNS中的大规模求解器,导致能求解的IP的规模受到当前求解器性能瓶颈的限制。为了解决这些问题,本文提出了一种基于GNN和GBDT引导的快速优化框架,该框架可以配合小规模优化器高效解决大规模IPs。具体而言,本文提出的框架可以分为三个阶段:使用多任务学习范式训练GNN,目标是生成包含空间信息的低纬稠密embedding;引入基于GBDT的预测模块,从而有效利用上阶段构建的embedding;在邻域搜索中使用小规模优化器。通过大量实验证明,本文提出的框架能解决百万规模的IP,且在指定的求解时间内仅使用问题规模的30%的小规模优化器就能获得比SCIP和Gurobi更优的解。此外,相关实验还表明本文提出的框架能在节省99%运行时间的情况下打平SCIP的求解效果,这也验证了所提框架在解决大规模IPs方面的有效性和效率。


Learning to Configure Separators in Branch-and-Cut NeurIPS, 2023
论文地址:arxiv.org/abs/2311.05…
论文源码:github.com/mit-wu-lab/…
论文摘要:割平面算法在解决混合整数线性规划问题(MILP)中至关重要,因为它们有助于改进最优解的边界。现有的MILP求解器依赖于各种separators,且在解决过程中频繁调用separators以生成多样化的切割平面集。本研究发现,选择合适的separators能显著提高MILP求解器的求解效率。考虑到不同separators之间能够形成的组合非常多(2的n次方),因此我们提出了一种新颖的数据驱动方案来限制选择空间,并在受限空间上使用learning-guided的算法。本文提出的方法会根据每个MILP实例的特性构建出合适的且在求解过程中可以动态调整的separators,从而有效地提升了开源求解器SCIP的求解效率。在多个MILP benchmark上的实验可知,本文提出的方案能在获取相同质量可行解的前提下大幅度降低求解时间(合成数据/真实数据,分别降低了72%/27%)。


Learning to Dive in Branch and Bound NeurIPS, 2023
论文地址:arxiv.org/pdf/2301.09…
论文源码:暂未找到;
论文摘要:针对初始解的启发式算法(Primal heuristics)对于混合整数线性规划问题(MILP)的求解至关重要,因为它们能够找到有助于分支定界搜索的可行解。diving heuristics是经典算法之一,它们能从分支定界搜索树的任意节点出发,通过迭代式地调整和解决线性规划来进行深度优先搜索。现有的diving heuristics依赖于通用的决策规则,而没有充分利用相似问题在结构上的共性。因此我们提出一种新方案L2Dive,它能基于图神经网络学习特定的diving heuristics:先训练1个用于预测变量取值的生成模型,然后借助线性规划的对偶性以及模型的预测值产出diving决策。L2Dive具有较好的适配性,我们能将其集成到开源求解器 SCIP 中。通过大量的实验,我们发现L2Dive 在很多组合优化问题上的表现要优于标准的diving heuristics(即能找到更好的可行解)。


A Deep Instance Generative Framework for MILP Solvers Under Limited Data Availability NeurIPS, 2023
论文地址:arxiv.org/abs/2310.02…
论文源码:github.com/MIRALab-UST…
论文摘要:在过去的几年中,使用机器学习(ML)技术解决组合优化问题(CO)的工作经历了爆炸性增长(尤其是针对混合整数线性规划的求解加速)。尽管取得了显著的成就,但实际问题中规模有限的MILP数据集可能会导致次优决策和有偏向的求解器评估,这促使人们提出了一系列针对MILP实例的合成技术。然而,现有的方法要么过于依赖专家的设计,要么难以捕捉真实MILP实例的丰富特征。为了解决这个问题,我们提出了G2MILP,这是第1个用于MILP实例的深度生成框架。具体而言,G2MILP先将MILP实例表示为二分图,然后使用掩码变分自编码器(masked variational autoencoder)迭代性地破坏和替换原始二部图的部分信息,从而生成新的二部图。G2MILP的优点在于它能在不引入专家知识的前提下生成新颖且逼真的MILP实例,同时保留真实数据集的结构和求解难度。因此,生成的实例可以在数据集规模比较有限的情况下提升MILP求解器处理下游任务的能力。我们设计了一套基准测试来评估合成MILP实例的质量,实验证明G2MILP能够生成在结构和求解难度方面与实际数据集非常相似的实例。


原文链接,欢迎关注公众号【决策AI探索者】,获取更多有关决策AI的前沿工作~
https://mp.weixin.qq.com/s?__biz=MzUxMjQzOTc1Nw==&mid=2247483778&idx=1&sn=91b4890704278e4d8ca70a1b15520f9b&chksm=f9652520ce12ac36571d8d728b8f383b1e08768fc8be04d9ba9e2527c37fc80f09c60ab40910&token=542039009&lang=zh_CN#rd

目录
相关文章
|
5天前
|
机器学习/深度学习 存储 负载均衡
利用机器学习优化数据中心的能效
【5月更文挑战第15天】在数据中心设计和运营中,能效管理是关键因素之一。随着能源成本的上升和环境保护意识的增强,通过技术手段提高数据中心的能源效率变得尤为重要。本文将探讨如何应用机器学习算法来优化数据中心的能耗,从而实现经济与环境双重效益的提升。我们将分析现有文献,并提出一种基于预测性维护和负载平衡策略的机器学习框架,旨在减少不必要的能源浪费,并通过实验验证该框架的有效性。
|
5天前
|
机器学习/深度学习 算法 数据挖掘
利用机器学习优化数据中心能效的策略与实践
【5月更文挑战第13天】 在数据中心管理和运营的众多挑战中,能源效率优化是降低运营成本和减少环境影响的关键因素。本文旨在探讨如何应用机器学习技术来提高数据中心的能效,通过智能化的数据分析和资源管理达到节能的目的。与传统的摘要不同,本文将直接深入探讨所采用的技术手段、实施步骤以及预期效果,为读者提供一种新颖的视角。
12 4
|
1天前
|
机器学习/深度学习 监控 算法
利用机器学习优化数据中心能效的策略
【5月更文挑战第18天】 在本文中,我们探讨了数据中心能效的重要性,并提出了一种基于机器学习的优化策略。该策略通过实时监控和预测数据中心的能耗模式,动态调整资源分配,以达到降低能源消耗的目的。我们首先分析了数据中心能效的关键因素,然后介绍了机器学习模型的开发过程,包括数据收集、特征选择、模型训练和验证。最后,我们展示了该策略在一个实际数据中心的应用案例,结果表明,与传统的静态能源管理方法相比,我们的机器学习优化策略能够显著提高数据中心的能效。
|
4天前
|
机器学习/深度学习 存储 算法
利用机器学习优化数据中心能效的策略
【5月更文挑战第15天】 在数据中心管理和运营中,能效优化是减少能源消耗、降低运营成本及减轻环境影响的关键因素。本文将探讨如何应用机器学习技术,通过实时数据分析与智能决策支持系统,提升数据中心的能源使用效率。我们将分析当前数据中心面临的能效挑战,并展示机器学习算法如何辅助发现节能减排的潜在机会。文中还将介绍一套完整的机器学习框架,该框架结合预测建模和优化控制策略,以实现数据中心的能效最优化。
|
5天前
|
人工智能 自然语言处理 搜索推荐
AI如何优化广告效果?
【5月更文挑战第15天】AI如何优化广告效果?
12 1
|
5天前
|
机器学习/深度学习 数据采集 算法
构建高效机器学习模型:从数据预处理到模型优化
【5月更文挑战第14天】 在机器学习项目中,模型的性能不仅取决于算法的选择,还受到数据处理和模型配置的影响。本文将探讨如何通过有效的数据预处理和细致的模型调优来提升机器学习模型的效能。我们将讨论数据清洗、特征工程、以及超参数调整等关键步骤,并通过实例展示这些技术如何实现在不同类型的数据集上。目标是为读者提供一套实用的策略,以帮助他们在面对实际问题时能够构建出更加健壮和精确的机器学习模型。
|
5天前
|
人工智能 JSON 机器人
[译][AI OpenAI-doc] 延迟优化
本指南涵盖了一系列核心原则,您可以应用这些原则来改善在各种LLM相关用例中的延迟。这些技术来自于与广泛的客户和开发人员在生产应用程序上的合作,因此无论您正在构建什么——从细粒度的工作流程到端到端的聊天机器人,都应该适用!
[译][AI OpenAI-doc] 延迟优化
|
5天前
|
机器学习/深度学习 人工智能 算法
构建高效AI系统:深度学习优化技术解析
【5月更文挑战第12天】 随着人工智能技术的飞速发展,深度学习已成为推动创新的核心动力。本文将深入探讨在构建高效AI系统中,如何通过优化算法、调整网络结构及使用新型硬件资源等手段显著提升模型性能。我们将剖析先进的优化策略,如自适应学习率调整、梯度累积技巧以及正则化方法,并讨论其对模型训练稳定性和效率的影响。文中不仅提供理论分析,还结合实例说明如何在实际项目中应用这些优化技术。
|
5天前
|
机器学习/深度学习 存储 监控
利用机器学习技术优化数据中心能效
【5月更文挑战第11天】 在云计算和大数据的背景下,数据中心作为信息处理的核心设施,其能效问题一直是研究的热点。传统的能效管理方法难以应对日益增长的能源消耗和复杂多变的工作负载。本文提出一种基于机器学习技术的数据中心能效优化方案,通过实时监控和智能调度策略,有效降低能耗并提升资源利用率。实验结果表明,该方案能够减少约15%的能源消耗,同时保持服务质量。
|
5天前
|
机器学习/深度学习 算法 大数据
利用机器学习优化数据中心的能源效率
【5月更文挑战第5天】 在本文中,我们探索了如何通过应用机器学习技术来改善数据中心的能源效率。传统的数据中心能源管理依赖于静态阈值和规则,这限制了它们在动态环境中优化能效的能力。我们提出了一个基于机器学习的框架,该框架能够实时分析数据中心的能耗模式,并自动调整资源分配以降低功耗。我们的方法结合了历史数据学习和实时预测模型,以实现更精细化的能源管理策略。实验结果表明,我们的机器学习模型相比传统方法在能源节约方面取得了显著的提升。
http://www.vxiaotou.com