
一、个人基本情况
李金娜,女,中共党员,1977年生,博士研究生导师,IEEE高级会员,享受国务院政府特殊津贴。荣获辽宁省“兴辽英才计划”领军人才、辽宁省高等学校创新人才与辽宁省高等学校杰出青年学者,“浑河学者”领军人才和抚顺市学科带头人荣誉称号。
二、学术兼职
IEEE Transactions on Industrial Informatics、ISA Transactions、Drones and Autonomous Vehicles 副主编,中国自动化学会过程控制专委会、青年工作委员会、数据驱动控制学习与优化专委会、人工智能与机器人教育专委会及控制理论专委会网络控制系统学组等多个专委会委员;IEEE/CAA Journal of Automatica Sinica 青年编委会委员、辽宁石油化工大学学报青年编委会副主任。长期为 Automatica、IEEE Transacti-ons on Automatic Control、IEEE Transactions on Industrial Electronics、 IEEE Transactions on Neural Networks and Learning Systems等国际权威期刊及中国控制会议、中国控制与决策会议、国际自动控制联合会等重要会议审稿,是国家自然科学基金函审专家、IEEE 高级会员。
三、研究方向
强化学习、动态智能建模、储运智能能耗优化、智能决策
四、研究生招生专业
控制科学与工程, 油气井工程, 油气储运工程
五、主要业绩
近年来,主持国家自然科学基金3项(包括面上项目2项、青年基金1项),主持中国博士后科学基金面上项目、辽宁省科技厅重点领域联合开放基金、辽宁省教育厅重点项目等省部级科研项目共 15 项。国内外高水平期刊发表学术论文130余篇,其中SCI收录论文占42%,在 Automatica、SCIENCE CHINA Information Sciences、IEEE Transa-ctions on Neural Networks and Learning Systems、IEEE Transactions on Cyb-ernetics、IEEE Transactions on Industrial Electronics等国际权威期刊发表论文33篇,ESI 高被引论文4篇、ESI热点论文 1 篇。获得国家发明专利授权9项。科研成果获辽宁省自然科学奖三等奖、中国石油工程建设协会科技进步一等奖、中国石油和化工自动化应用协会科技进步二等奖等 16项奖励。指导硕士研究生36名,研究生获国家奖学金5人次。
六、代表性科研项目(限10项)
[1] 中国石化固井与完井重点实验室项目,基于人工智能的井筒 完整性动态风险识别与预警方法研究,2025.12-2027.11,主持。
[2] 辽宁省教育厅重点科技攻关项目,天然气掺氢管网动态时间域自学习泛化感知 与性能优化关键技术研究,2024.09-2026.09,主持。
[3] 国家自然科学基金(面上项目),复杂工业过程的自学习鲁棒分布式协调运行优化与控制,2021.01-2024.12,注册。
[4] 国家自然科学基金(面上项目),基于近似动态规划的复杂工业过程数据驱动双网运行优化控制方法研究,2017.01-2020.12,主持。
[5] 国家自然科学基金(青年基金),基于错序认知的网络控制系统集成控制器设计关键技术研究,主持2012.01-2014.12,主持。
[6] 辽宁省高等学校创新人才,2017.01-2019.12,主持。
[7] 辽宁省自然基金重点领域联合开放基金,面向动态复杂流程工业过程的全厂级自学习博弈优化决策与控制,2019.10-2022.09,主持。
[8] 辽宁省教育厅基本科研项目 (重点项目), 图博弈鲁棒强化学习方法及其输气[9] 管道运行优化控制应用,2021.05-2024.05,主持。
东北大学流程工业综合自动化国家重点实验室开放课题,面向复杂工业过程的数据驱动全厂级性能优化控制研究,2016.1-2018.12,主持。
[10] 中国博士后科学基金资助项目,具有错序的网络控制系统分析与实时控制,2010.04-2011.04,主持。
七、代表性论著(第一或通讯作者,限10篇)
[1] "Optimal Sensor Selection of Linear Quadratic Regulation with Unknown Sensor Noise Covariances," IEEE/CAA Journal of Automatica Sinica,(JCR Q1,IF19.2),2025.
[2] Reinforcement learning for synchronization of heterogeneous multiagent systems by improved Q-functions, IEEE Transactions on Cybernetics,(JCR Q1,IF10.5),2024, 54(11):6545-6558.
[3] Compensator-based self-learning:optimal operational control for two-time-scale systems with input constraints, IEEE Transactions on Industrial Informatics,(JCR Q1,IF12.3),2024, 20(7): 9465-9475.
[4] Safe reinforcement learning: optimal formation control with collision avoidance of multiple satellite systems, IEEE Transactions on Cybernetics, Early Access,(JCR Q1,IF10.3),2024.
[5] Reinforcement learning for optimal tracking of large-scale systems with multitime scales, SCIENCE CHINA Information Sciences,(JCR Q1,IF7.6),2023,66: 170201.
[6] Optimal operational self-learning control for multi-time scale industrial processes with signal compensations, Engineering Applications of Artificial Intelligence,(JCR Q1,IF8.0),2023, 126: 107065.
[7] Off-policy Q-learning: solving Nash equilibrium of multi-player games with network-induced delay and unmeasured state, Automatica,(JCR Q1,IF4.8),2022, 136: 1-7.
[8] Off-policy reinforcement learning for synchronization in multi-agent graphical games, IEEE Transactions on Neural Networks and Learning Systems,(JCR Q1,IF10.2),2017, 28(10): 2434-2445.
[9] Off-policy reinforcement learning: optimal operational control for two-time-scale industrial processes, IEEE Transactions on Cybernetics,(JCR Q1,IF10.5),2017, 47(12): 4547- 4558.
[10] Off-policy Q-learning: set-point design for optimizing dual-rate rougher flotation operational processes, IEEE Transactions on Industrial Electronics,(JCR Q1,IF17.7),2018, 65(5): 4092-4102.
八、联系方式
联系电话:13664104881(微信同步)
E-mail:lijinna_721@126.com