ゲームゲーム・パズル
反復深化探索法; Iterative Deepening Depth First Search Method

概要
反復深化探索法とは一手ずつゲーム木の展開を行い、深さ\(N+1\)のノードの結果によって深さ\(N\)のソートを行い、ソートを行わないアルファベータ法より刈り込まれるノード数を多くすることで計算効率の向上をはかったものである。
盤面状態の評価法が理想的ならば、ミニマックス法の評価盤面数の平方根程度に抑えられる。
またゲーム木の展開深さが小さいときはソートを行わない分アルファベータ法の方が高速になる。

ソースコード

namespace GameTreeSearch {

    /// <summary>反復深化探索法</summary>
    /// <typeparam name="StateType">盤面状態クラス</typeparam>
    /// <typeparam name="DecisionType">棋譜クラス</typeparam>
    public static class IterativeDeepeningDepthFirstSearchMethod<StateType, DecisionType> where StateType : IState<DecisionType> where DecisionType : new() {

        /// <summary>探索</summary>
        /// <param name="root_state">ルートとなる状態</param>
        /// <param name="max_depth">ゲーム木の深さ</param>
        /// <param name="pass_decision">パス決定オブジェクト(有効な棋譜が存在しない場合に採用される)</param>
        /// <returns>ゲーム木探索によって決定された棋譜</returns>
        public static DecisionType Search(StateType root_state, int max_depth, DecisionType pass_decision) {
            if(max_depth <= 0 || root_state.IsEndGame) {
                return pass_decision;
            }

            Func<GameNode<StateType, DecisionType>, int, int, bool, double, double, double> iddfs_method = null;
            iddfs_method = (node, depth, limit_depth, is_player, alpha, beta) => {
                if(depth >= limit_depth || node.IsEndNode) {
                    return node.Evaluation;
                }
                else if(node.ChildsCount <= 0) {
                    node.ExpandChildNodes();
                }
                else {
                    foreach(var child_node in node.ChildNodeList) {
                        child_node.IsEvaluated = false;
                    }
                }

                if(is_player) {
                    foreach(var child_node in node.ChildNodeList) {
                        double ev = iddfs_method(child_node, depth + 1, limit_depth, !is_player, alpha, beta);

                        if(alpha < ev) {
                            alpha = ev;
                        }

                        if(alpha >= beta) {
                            node.DescendingSortChildNodes(is_evaluate: false);
                            node.Evaluation = node.EvaluationFirstChildOrSelf;
                            return beta;
                        }
                    }

                    node.DescendingSortChildNodes(is_evaluate: false);
                    node.Evaluation = node.EvaluationFirstChildOrSelf;
                    return alpha;
                }
                else {
                    foreach(var child_node in node.ChildNodeList) {
                        double ev = iddfs_method(child_node, depth + 1, limit_depth, !is_player, alpha, beta);

                        if(beta > ev) {
                            beta = ev;
                        }

                        if(alpha >= beta) {
                            node.AscendingSortChildNodes(is_evaluate: false);
                            node.Evaluation = node.EvaluationFirstChildOrSelf;
                            return alpha;
                        }
                    }

                    node.AscendingSortChildNodes(is_evaluate: false);
                    node.Evaluation = node.EvaluationFirstChildOrSelf;
                    return beta;
                }
            };

            var root_node = new GameNode<StateType, DecisionType>(root_state, new DecisionType(), null);

            for(int limit_depth = 1; limit_depth <= max_depth; limit_depth++) {
                iddfs_method(root_node, 0, limit_depth, true, double.NegativeInfinity, double.PositiveInfinity);
            }

            if(root_node.ChildNodeList.Count > 0) {
                return root_node.ChildNodeList[0].Decision;
            }
            else {
                return pass_decision;
            }
        }
    }
}

関連項目
ゲーム木
完全探索法
ミニマックス法
アルファベータ法
探索打ち切り可能な反復深化探索法
オセロAIの開発(実装例)

ライブラリライブラリ
確率統計確率統計
線形代数線形代数
幾何学幾何学
最適化最適化
微分方程式微分方程式
画像処理画像処理
補間補間
機械学習機械学習
クラスタリングクラスタリング
パズルゲーム・パズル
未分類未分類