飞道的博客

A*搜索算法概述

197人阅读  评论(0)

编者按:本文作者奇舞团前端开发工程师魏川凯。

A*搜索算法(A-star search algorithm)是一种常见且应用广泛的图搜索和寻径算法。A*搜索算法是通过使用启发式函数来指导寻路,从而高效的保证找到一条最优路径。A*搜索算法最初的设计是用来解决最短路径问题。但是,从理论来说A*可以解决大多数的成本代数问题。

A*搜索算法于1968年,由斯坦福研究院的Peter Hart,Nils Nilsson以及Bertram Raphael首次发表。

原理

A*搜索算法综合了最佳优先搜索算法(Best-first search)和Dijkstra算法的优点,通过一个成本估算函数来指导路径的搜索过程:

f ( n ) = g ( n ) + h ( n )
其中:

  • $n$:任意一个顶点

  • $g(n)$:表示起点到任意顶点$n$的实际成本

  • $h(n)$:是一种启发式函数,表示从任意顶点$n$到目标点的估算成本

在算法的每次迭代中,会从一个优先队列中取出$f(n)$值最小(估算成本最低)的节点作为下次待遍历的节点。这个优先队列通常称为open set。然后相应地更新其领域节点的$f(n)$和$g(n)$值,并将这些领域节点添加到优先队列中。最后把遍历过的节点放到一个集合中,称为close set。直到目标节点的$f(n)$值小于队列中的任何节点的$f(n)$值为止(或者说直到队列为空为止)。因为目标点的启发式函数$h(n)$值为0,所以说目标点的$f(n)$值就是最优路径的实际成本。

下面为A*搜索算法的主流程代码:

// heuristicFunction,启发式函数

function aStar(start, goal, heuristicFunction) {

  // 带估算的节点集合,为一个优先队列,每次取f(n)值最小的节点

  const openSet = new PriorityQueue()

  openSet.add(start) // 初始只有起点

  const closeSet = [] // 已被估算过的节点集合

  const gScore = { [start]: 0 } // g(n)值

  const hScore = { [start]: heuristicFunction(start, goal) } // h(n)值

  const fScore = { [start]: hScore[start] } // f(n)值

  const cameFrom = {} // 记录当前节点的上一个节点

  while(!openSet.isEmpty()) {

    const current = openSet.pollFirst()

    if(current === goal)

      return reconstructPath(cameFrom, goal) // 当前节点为目标点,返回最佳路径

    close_set.add(current)

    // neighborNodes,取出current节点的邻域节点

    for(let neighbor of neighborNodes(current)) {

      if(close_set.includes(neighbor))

        continue

      // 从起点到neighor的距离

      const tentativeGScore = gScore[current] + distance(neighbor, current)

      if(!openSet.includes(neighbor) || tentativeGScore < gScore[neighbor]) {

        // 记录neighbor节点的前一个节点

        cameFrom[neighbor] = current

        gScore[y] = tentativeGScore

        hScore[y] = heuristicFunction(neighbor, goal)

        fScore[y] = gScore[neighbor] + hScore[neighbor]

        openSet.add(neighbor)

      }

    }

  }

}

function reconstructPath(cameFrom, current) {

    const bestPath = [current]

    while(cameFrom[current]) {

      current = cameFrom[current]

      bestPath.unshift(current)

    }

    return bestPath

}

启发式函数

启发式函数作为A*搜索算法的核心,对算法的行为有着重大的影响,具体有以下几种情况:

  • 当启发式函数$h(n)$始终为0时,则将由从起点到任意顶点n的距离$g(n)$决定,此时A*算法将等效于Dijkstra算法。此时,可以考虑初始化一个值非常大的全局计数器C,每次处理一个节点时,将C分配给它所有领域节点。每次分配后,再将计数器C减一。节点被发现的越早,其$h(x)$值就越高。从而实现深度优先遍历。

  • 当$h(n)$始终小于等于顶点n到目标点的实际成本,则A*算法一定可以求出最优解。但是当$h(n)$的值越小,算法需要计算的节点越多,算法效率越低。

  • 当$h(n)$完全等于顶点n到目标点的实际成本,则A*算法将以较快的速度找到最优解。可惜的是,并非所有场景下都能做到这一点。因为在没有达到目标点之前,我们很难确切算出距离目标点还有多远。

  • 当$h(n)$大于顶点n到目标点的实际成本,则A*不能保证找到一条最短路径,但它运行得更快。

  • 当从起点到任意顶点n的实际成本$g(n)$等于0,或者$h(n)$值远远大于$g(n)$时,则只有h(n)起作用,此时算法演变成最佳优先搜索算法,速度最快,但可能得不出最优解。

可以看出,通过调节$h(n)$可以控制算法的精度和速度。一些情况下,我们未必要找到最佳路径,而是要高效的找出差不多好的路径,所以需要权衡,这个我们后面在讲。

二维网格地图中的启发式函数

在二维网格地图中,有如下几种常见的启发式函数:

  • 如果允许朝四个方向移动,即上下左右,则可以使用曼哈顿距离($L_1\,norm$)

  • 如果允许朝八个方向移动,即增加了对角线方向,则可以使用切比雪夫距离($L_\infty\,norm$)

  • 如果允许朝任何方向移动,则可以使用欧几里得距离($L_2\,norm$)

曼哈顿距离

曼哈顿距离(Manhattan distance)是指两点所形成的线段对坐标轴产生的投影的长度总和。在向量空间中又称为L1范数。在直角坐标系下,两点之间的曼哈顿距离为:

d ( x , y ) = | x 1 x 2 | + | y 1 y 2 |

因此曼哈顿距离的启发式函数为:

h ( n ) = D × ( | n . x g o a l . x | + | n . y g o a l . y | )
其中D是节点移动的单位成本,一般是一个常数。

切比雪夫距离

切比雪夫距离(Chebyshev distance)是指二个点之间的距离定义为其各座标数值差的最大值。在向量空间中又称为L∞范数。在直角坐标系下,两点之间的切比雪夫距离为:

d ( x , y ) = m a x ( | x 1 x 2 | , | y 1 y 2 | )

因此切比雪夫距离的启发式函数为:

h ( n ) = D × m a x ( | n . x g o a l . x | , | n . y g o a l . y | )
上面的函数前提是直线和对角线的移动成本都是D,如果对角线的移动成本不是D,则上面的函数是不准确的,那就需要一个更准确的函数:$$ h(n) = D \times (|n.x - goal.x| + |n.y - goal.y|) + \sqrt{2} D min(|n.x - goal.x|, |n.y - goal.y|) $$

欧几里得距离

欧几里得距离(Euclidean distance)是指两点之间的直线距离。在向量空间中又称为L2范数。在直角坐标系下,两点之间的欧几里得距离为:

d ( x , y ) = ( x 2 x 1 ) 2 + ( y 2 y 1 ) 2

因此欧几里得距离的启发式函数为:

h ( n ) = D × ( n . x g o a l . x ) 2 + ( n . y g o a l . y ) 2

松弛

前面的章节我们提到,通过调节$h(n)$可以控制算法的速度和精度,一些情况下,我们可以牺牲最优性,来加快搜索速度。这时候需要做一些松弛操作,以便我们求得相较于最优解(1+ε)倍的次优解。

  • 静态加权。假设$h(n)$是一个启发式函数,我们可以用$h_w(n = ε \times h(n), ε > 1)$作为加权后的启发式函数,由于扩展了较少的节点,因此速度加快,找到的路径的误差最多是最小路径的ε倍。

  • 动态加权。通过动态改变权重大小,从而控制搜索的速度,可以使用如下的启发式函数:

    f ( n ) = g ( n ) + ( 1 + ε ω ( n ) ) h ( n )
    其中

    • w(n)是计算权重的函数,当前搜索深度较小时,会获得较大的权重,加快搜索速度:

      ω ( n ) = { 1 d ( n ) N d ( n ) N   0 o t h e r w i s e

    • $d(n)$是搜索深度,$N$是最终路径的预期长度,ε是允许的误差范围。

  • 通过偏好离目标点最近的节点来加快深度遍历,以提高速度。使用如下的启发式函数:

    $$  f\alpha(n)=(1+w\alpha(n))f(n) $$

    其中

    • wα(n)是计算权重的函数

      w α ( n ) = { λ g ( π ( n ) ) g ( n ~ )   Λ o t h e r w i s e

    • λ和Λ是$\lambda \leq \Lambda$的常量,$π(n)$是n的父节点,而ñ是要扩展的节点。

参考连接

  1. https://en.wikipedia.org/wiki/A*_search_algorithm

  2. http://theory.stanford.edu/~amitp/GameProgramming/AStarComparison.html

关于奇舞周刊

《奇舞周刊》是360公司专业前端团队「奇舞团」运营的前端技术社区。关注公众号后,直接发送链接到后台即可给我们投稿。


转载:https://blog.csdn.net/qiwoo_weekly/article/details/103248866
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场