服务热线: 13472705338
新闻中心 news center

煤矿智能仓储系统研究与设计

伴随互联网、大数据、人工智能技术的迅猛发展,煤矿智能化相关技术与装备水平也在显著提升。同时,随着煤矿智能化程度...
联系我们 contact us
新闻中心
您当前的位置:首页 > 新闻中心 > 基于强化学习的多机器...

基于强化学习的多机器人仓储调度方法研究

信息来源: 发布时间:2021-12-16 点击数:

对于智能仓储而言,一个高效的调度系统是提升整个仓储系统效率的核心。本文基于仓储物流机器人[1],对其在智能仓储调度系统中,如何有效降低运行代价,提高运行效率进行研究和建模分析。对新时代挑战下的智能仓储管理具有积极的作用[2]

1 问题描述

在智能仓储调度系统中,调度环节运行代价由完成一定数量订单任务的时间代价和路程代价组成。在设定的仓储环境中,应用若干机器人对某时段一定数量的订单任务进行分配、执行,则其时间代价对应的是机器人集群完成所有订单任务的时间和总路程代价。

智能仓储调度环境由货架、一定数量的智能机器人和数个工作台组成。为了简化系统,方便对比系统性能,对仓库地图栅格化[3],形成二维平面50×28的栅格如图1所示,其中包含4×12×6个货架,3个工作台和8个智能机器人。每一个仓储物流机器人占一格单位的栅格,在空白栅格中移动完成各自任务。从栅格左上角第一个单位栅格开始,按列对每个单位栅格进行编号,形成1~1 400号栅格。并对该智能仓储调度过程做出如下合理性条件假设:

1)所有机器人的规格都是完全相同的;

2)机器人只能通过上、下、左、右四个动作中的一个到达相邻的网格;

3)设定机器人在工作台停留的时间和取货时举起货架的时间为一个常数,以简化计算;

4)一个机器人一次只能处理一个订单的物流任务。

图1 智能仓储系统栅格模型

图1 智能仓储系统栅格模型  下载原图

Fig.1 Grid model of intelligent warehousing system

调度过程如下:首先通过多机器人任务分配算法对未完成的订单进行分配,每个智能机器人将被分配到一个或多个订单任务,智能机器人根据被分到的任务的具体信息,通过路径规划算法从当前位置移动到货架位置;然后将货架运输到指定的工作台进行相应处理,再从当前位置移动到下一个任务订单所指向的货架,依次循环直至完成所有被分到的任务。

本文将调度问题凝练为一个目标规划问题,根据上文的描述,目标函数综合时间代价、总路径代价并增加协同度指标,在发挥机器人适配订单的个体优势下,同时也提高机器人集群完成订单任务的整体协调性。该目标函数的数学表述如下:

 


式中:TT, TTC和BU分别表示完成所有订单任务的时间代价、总路径代价和协同度指标;a, b, c分别为TT, TTC, BU的权重,参照实际情况可加以调整。

2 算法设计

借助于Q-Learning算法在未知环境下强大的自主学习能力[4,5,6,7],以及遗传算法求解的快速收敛特性[8,9,10],本文的调度方案分别采用多层编码遗传算法进行多机器人任务分配,采用强化学习的Q-Learning算法进行路径规划。一般而言,算法流程如图2所示。在整个算法中,路径规划算法计算出种群中随机生成的每个染色体完成任务的路径代价,根据它们之间差异的大小,作为判断染色体好坏的指标,以此挑选出种群中优秀的染色体进行后续的操作,直到选出最优。

图2 算法流程

图2 算法流程  下载原图

Fig.2 Algorithm flow

虽然上述的设计可以找到最优的结果,但算法的计算量十分巨大,运行起来耗时严重,不适合用于实际仓库订单高并发量的现状和发展趋向。假设遗传算法的最大遗传代数为4 000,种群规模设为100, Q-Learning学习8 000次,则代价差异需迭代计算100×4 000×8 000=3 200 000 000次。基于栅格化仓库模型特点,本文创新的使用仓储环境中的曼哈顿路径值为代价估计值,将大量重复的迭代计算转换为一次线性的估计值计算。利用代价估计值来寻找优秀的染色体,这样的优化方法可以省去Q-Learning的迭代计算,极大地降低了算法的运行时间。

具体操作如下:假定当前时间段有n个任务,T={t1, t2, …, tn},有m个机器人,R={r1, r2, …, rm},根据多机器人任务分配算法将其分为m组,K= (K1, K2, …, Km) 。其中,Ki表示机器人ri所分到的l个任务,Ki={Ki1, Ki2, …, Kil}。指定每一个单元栅格的右下角坐标为该栅格的坐标。

根据所构建仓库模型,机器人ri完成一个物流任务tj所花费的路径代价的估计值用cij表示,即智能机器人忽略障碍物,从当前位置S (xs, ys) 到任务tj (xj, yj) 的曼哈顿距离和从任务tj (xj, yj) 到距离其直线距离最近的工作台G (xg, yg) 的曼哈顿距离之和,其计算公式为:

 


式中:s, g代表当前位置和工作台的状态信息;j∈[0, n];1≤xs, xj, xg≤50;0≤ys, yj, yg≤27。

Ki中机器人ri完成被分到的所有l个任务的总代价的估计值为:

 


本文遗传算法过程适应度函数综合时间代价估计值、路径代价估计值和协同度3个指标,设置为:

 


式中,a, b, c分别是对应项的权重。本文结合实际情况,在TT, TTC, BU归一化后,其权重按照2∶1.5∶1设置。TT为总时间的估计值,即完成所有订单任务所花费的时间代价的估计值,取机器人中路径代价估计值最大的表示;TTC为总路程的估计值,即系统所有机器人完成所有任务的路径代价估计值的总和;BU为协同度,取机器人路径代价估计值的方差,反映其离散程度。数学描述分别如下:

 


综上所述,优化后的算法流程为:

1)采用多层编码遗传算法进行多机器人任务分配;

2)采用强化学习的Q-Learning算法进行路径规划,如图3所示。根据遗传算法收敛特性,利用代价估计值快速寻找出最优任务分配方案,输出结果作为Q-Learning过程的初始条件,最终形成总任务的调度方案。

3 仿真实验与分析

对本文所设计算法的有效性进行验证,硬件配置为IntelCoreTMi7-2600, Matlab 2017a,对其进行仿真实验,相关参数设置如表1所示。订单任务数量分别设置为50, 100, 150, 200, 250,进行了5组测试。将最终的实验结果与文献[11]中所设计的一种基于虚拟任务遗传算法的多机器人任务分配和Q-Learning单智能体路径规划算法所得到的结果进行比较,主要比较了运行时间和机器人所走的总路程这两个主要指标。其仿真结果如表2所示。

图3 优化后算法流程

图3 优化后算法流程  下载原图

Fig.3 Algorithm flow after optimization


  

表1 仿真参数设定  下载原图

Table 1 Simulation parameter setting


表1 仿真参数设定

表1 仿真参数设定


  

表2 仿真结果  下载原图

Table 2 Simulation results


表2 仿真结果

表2 仿真结果

由表2可以看出,本文设计的方法相较于文献[11的方法,无论是在机器人完成任务的总路程还是在算法的运行时间上都有较大的改善,运算时间可能会有电脑硬件性能影响,但在总路程上,相较于前者平均提高62%。根据表2的相关数据分析,当任务数量呈线性增长时,算法的总路程和运算总时间也是呈线性增加,体现出本文算法良好的性能。

4 结语

本文的创新研究如下:

1)在综合考虑调度系统全局的时间代价和机器人集群整体运行效率的同时,加入协同度指标,提高机器人个体之间的平衡性;

2)与相关文献进行对比,本文的算法在调度过程中,基于机器人集群的总路程减少了62%;

3)在计算适应度函数时引入代价估计值,优化了算法的结构,算法的运行时间有明显改善。

综合以上所提方法更适合解决复杂的大规模的智能仓储调度问题。在本文中,机器人的路径规划算法是在硬性避障条件下的单机器人路径规划,将来可以结合以上避障规则下对机器人协同问题进行研究,在取货和上货同时进行的情况,设计出效率更高的智能仓储调度系统。

上海阳合仓储管理
官方二维码

版权所有©:阳合仓储 公司地址:上海市嘉定区南翔嘉美路428号 联系电话:134-7270-5338 沪公网安备 31011402008347号 沪ICP备14036201号-1