AI领域发展迅速,今天看似先进的大模型,几年后可能会被视为落后的小模型。然而,无论技术如何演化,基于第一性原则的结论却能长久有效。在这个报告中,我们将研究如何利用神经网络进行一阶法加速和求解混合整数优化问题,并通过数学推导得到神经网络所必须具备的结构,从而起到简化训练并提升稳定性的作用。
报告人简介:印卧涛,南京大学数学系本科毕业,哥伦比亚大学运筹专业博士。2006年至2013年于莱斯大学任职,2013年至2021年于加州大学洛杉矶分校数学系担任终身教授。2019年加入阿里巴巴,负责达摩院决策智能实验室。他的研究兴趣包括最优化及其在信号处理、机器学习和其他数据科学问题中的应用。他曾在2008年获得NSF CAREER奖,2009年获得斯隆研究奖,2016年获得晨兴应用数学金奖,2021年获得Egon Balas奖以及达摩奖。自2018年起,他被Clarivate Analytics评为前1%的被引用学者。