Google的优化工具:
程序实现肯定好,但是如果想要满足需求还需要进一步加入动态的,考虑到该工具可以支持有初始路径的场景进行方案分配,那么就可以满足实时更新的要求,把每天分为多个时间段,在每个时间段内看作是一个静态的VRP问题。那这个程序不需要进行太大的改造就还可以,还有一个关键的问题是,评价指标在这个程序中如何体现?
E-ACO的方案:
需要自己从零开始写起,效果不一定好,还费时费力
老马方案:
在原来的三种静态方案上修修补补。可是要如何修改呢?可研报中是说可以借助蚁群算法、遗传算法等启发式算法进行改进,同时利用强化学习不断提高系统的能力。
这种方案需要在原来的已经成型的静态方案中进行修改,那首先就是要了解原来的静态方案,要不然怎么修改呢?现在又拿不到之前静态方案的demo,想要做只能自己看懂java然后去写出来demo,然后在此之上再去修改为动态的.
又想到似乎可以把google的方案包装一下,直接拿来用不太妥,
第一, 需要时动态的,那可以按照杭电论文的观点,把一天分为多个时间段,将动态问题静态化。
第二, 反正之前说过要用强化学习来进一步增强的,那就在google的基础上加上强化学习的部分。
第三, 这样来做工作量似乎最小。
那接下查一查这种VRP问题怎么用强化学习?
查找到了用强化学习解决VRP问题的外文文章,Deep Reinforcement Learning for Solving the Vehicle Routing Problem,接下来看这篇文章如何解决,并且看看是否有源码。