0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

FreeCADのトポロジー最適化をGeminiが10倍−15倍高速化した話 その3(Plan詳細 詳細編)

Last updated at Posted at 2025-04-03

一つ前の記事

詳細掘り下げのプロンプト

あとは実行するだけですが、詳細なプランを立ててもらいます。

プロンプト
提案1.2: フィルタリング計算のベクトル化
が気になります。
修正対象のコードをよりしっかり確認して、詳細な修正方針内容を検討して、変更仕様をActionPlan1_2.mdとしてまとめてください。

ドキュメントが更新され番号が変わっていますが、このタイミングでは1.2でした

以下、出来上がったドキュメントです。

BESO フィルタリング計算のベクトル化 実装計画

1. 概要

BESO プラグインのフィルタリング処理をベクトル化することで、計算効率を大幅に向上させることができます。このドキュメントでは、beso_filters.py のフィルタリング関数を NumPy のベクトル化操作に置き換える具体的な実装計画を提案します。

期待される効果: 最大5〜10倍の高速化(特に大規模モデルでの処理時間短縮)

2. 修正対象関数

主要な修正対象は beso_filters.py の以下の関数です:

  1. run2 - 単純な要素間の重み付き平均によるフィルタリング
  2. run1 - ノードを介したフィルタリング
  3. run3 - ポイントメッシュを介したフィルタリング
  4. run_morphology - 形態学的フィルタリング

これらの関数は、要素ごとのループ内で平均計算や最小/最大値の検索を行っており、ベクトル化による恩恵が最も大きい部分です。

3. 実装計画

3.1 run2 関数のベクトル化(優先度:最高)

この関数は比較的単純な構造であるため、最初に対応すべきです。現在の実装では、各要素について近接要素の感度数値の重み付き平均を計算しています。

現在の実装:

def run2(file_name, sensitivity_number, weight_factor2, near_elm, opt_domains):
    sensitivity_number_filtered = sensitivity_number.copy()  # sensitivity number of each element after filtering
    for en in opt_domains:
        numerator = 0
        denominator = 0
        for en2 in near_elm[en]:
            ee = (min(en, en2), max(en, en2))
            numerator += weight_factor2[ee] * sensitivity_number[en2]
            denominator += weight_factor2[ee]
        if denominator != 0:
            sensitivity_number_filtered[en] = numerator / denominator
        else:
            msg = "\nERROR: simple filter failed due to division by 0." \
                  "Some element has not a near element in distance <= r_min.\n"
            print(msg)
            beso_lib.write_to_log(file_name, msg)
            filter_on_sensitivity = 0
            return sensitivity_number
    return sensitivity_number_filtered

ベクトル化された実装案:

def run2_vectorized(file_name, sensitivity_number, weight_factor2, near_elm, opt_domains):
    sensitivity_number_filtered = sensitivity_number.copy()
    
    # 要素をリストに変換して処理を高速化
    opt_domains_list = list(opt_domains)
    
    # 各要素に対して近接要素とその重みのリストを作成
    neighbor_data = {}
    for en in opt_domains_list:
        neighbor_data[en] = []
        for en2 in near_elm[en]:
            ee = (min(en, en2), max(en, en2))
            neighbor_data[en].append((en2, weight_factor2[ee]))
    
    # 要素ごとの処理をベクトル化
    for en in opt_domains_list:
        if not neighbor_data[en]:  # 近接要素がない場合
            continue
            
        # 近接要素の感度数値と重みを配列に変換
        neighbors, weights = zip(*neighbor_data[en])
        sensitivity_values = np.array([sensitivity_number[n] for n in neighbors])
        weights_array = np.array(weights)
        
        # 重み付き平均の計算
        denominator = np.sum(weights_array)
        if denominator != 0:
            sensitivity_number_filtered[en] = np.sum(sensitivity_values * weights_array) / denominator
        else:
            msg = "\nERROR: simple filter failed due to division by 0." \
                  "Some element has not a near element in distance <= r_min.\n"
            print(msg)
            beso_lib.write_to_log(file_name, msg)
            return sensitivity_number
            
    return sensitivity_number_filtered

さらなる最適化案:
要素数が多い場合、すべての要素をまとめて処理することで、さらなる高速化が可能です:

def run2_fully_vectorized(file_name, sensitivity_number, weight_factor2, near_elm, opt_domains):
    sensitivity_number_filtered = sensitivity_number.copy()
    opt_domains_list = list(opt_domains)
    
    # すべての要素を一度に処理
    all_elements = np.array(opt_domains_list)
    all_numerators = np.zeros(len(all_elements))
    all_denominators = np.zeros(len(all_elements))
    
    # 各要素のインデックスを記録
    element_to_index = {en: i for i, en in enumerate(all_elements)}
    
    # 各要素ごとに近傍要素の重み付き感度を計算
    for i, en in enumerate(all_elements):
        for en2 in near_elm[en]:
            ee = (min(en, en2), max(en, en2))
            weight = weight_factor2[ee]
            all_numerators[i] += weight * sensitivity_number[en2]
            all_denominators[i] += weight
    
    # ゼロ除算を避ける
    valid_indices = all_denominators != 0
    if not np.all(valid_indices):
        msg = "\nERROR: simple filter failed due to division by 0." \
              "Some element has not a near element in distance <= r_min.\n"
        print(msg)
        beso_lib.write_to_log(file_name, msg)
        return sensitivity_number
        
    # 一度に全要素の感度数値を更新
    filtered_values = all_numerators[valid_indices] / all_denominators[valid_indices]
    for idx, en in enumerate(all_elements[valid_indices]):
        sensitivity_number_filtered[en] = filtered_values[idx]
    
    return sensitivity_number_filtered

3.2 run3 関数のベクトル化(優先度:高)

この関数はポイントメッシュを介したフィルタリングを行っています。2つの主要なループがあり、両方をベクトル化することで性能が向上します。

現在の実装:

def run3(sensitivity_number, weight_factor3, near_elm, near_points):
    sensitivity_number_filtered = sensitivity_number.copy()
    point_sensitivity = {}

    # 重み付き平均:要素からポイントへ
    for pn in near_elm:
        numerator = 0
        denominator = 0
        for en in near_elm[pn]:
            numerator += weight_factor3[(en, pn)] * sensitivity_number[en]
            denominator += weight_factor3[(en, pn)]
        point_sensitivity[pn] = numerator / denominator

    # 重み付き平均:ポイントから要素へ
    for en in near_points:
        numerator = 0
        denominator = 0
        for pn in near_points[en]:
            numerator += weight_factor3[(en, pn)] * point_sensitivity[pn]
            denominator += weight_factor3[(en, pn)]
        sensitivity_number_filtered[en] = numerator / denominator

    return sensitivity_number_filtered

ベクトル化された実装案:

def run3_vectorized(sensitivity_number, weight_factor3, near_elm, near_points):
    sensitivity_number_filtered = sensitivity_number.copy()
    point_sensitivity = {}

    # 要素からポイントへのベクトル化
    for pn in near_elm:
        if not near_elm[pn]:
            continue
            
        near_elements = np.array(near_elm[pn])
        weights = np.array([weight_factor3[(en, pn)] for en in near_elements])
        sens_values = np.array([sensitivity_number[en] for en in near_elements])
        
        point_sensitivity[pn] = np.sum(weights * sens_values) / np.sum(weights)

    # ポイントから要素へのベクトル化
    for en in near_points:
        if not near_points[en]:
            continue
            
        near_pts = np.array(near_points[en])
        weights = np.array([weight_factor3[(en, pn)] for pn in near_pts])
        sens_values = np.array([point_sensitivity[pn] for pn in near_pts])
        
        sensitivity_number_filtered[en] = np.sum(weights * sens_values) / np.sum(weights)

    return sensitivity_number_filtered

3.3 run_morphology 関数のベクトル化(優先度:中)

この関数は形態学的フィルタリングを行います。内部の filter 関数のベクトル化が鍵となります。

現在の実装(重要な部分のみ):

def filter(filter_type, sensitivity_number, near_elm, opt_domains):
    sensitivity_number_subtype = sensitivity_number.copy()
    for en in opt_domains:
        sensitivity_number_near = [sensitivity_number[en]]
        for en2 in near_elm[en]:
            sensitivity_number_near.append(sensitivity_number[en2])
        if filter_type == "erode":
            if FI_step_max:
                if FI_step_max[en] >= 1:  # if failing, do not switch down
                    pass
                else:
                    sensitivity_number_subtype[en] = min(sensitivity_number_near)
            else:
                sensitivity_number_subtype[en] = min(sensitivity_number_near)
        elif filter_type == "dilate":
            sensitivity_number_subtype[en] = max(sensitivity_number_near)
    return sensitivity_number_subtype

ベクトル化された実装案:

def filter_vectorized(filter_type, sensitivity_number, near_elm, opt_domains, FI_step_max=None):
    sensitivity_number_subtype = sensitivity_number.copy()
    opt_domains_list = list(opt_domains)
    
    # 各要素ごとに近接要素の感度数値の配列を作成
    for en in opt_domains_list:
        # 自身と近接要素の感度数値を配列化
        sensitivity_values = np.array([sensitivity_number[en]] + 
                                      [sensitivity_number[en2] for en2 in near_elm[en]])
        
        if filter_type == "erode":
            if FI_step_max and FI_step_max[en] >= 1:
                # failing要素はそのまま
                pass
            else:
                # 最小値を取得
                sensitivity_number_subtype[en] = np.min(sensitivity_values)
        elif filter_type == "dilate":
            # 最大値を取得
            sensitivity_number_subtype[en] = np.max(sensitivity_values)
    
    return sensitivity_number_subtype

3.4 run1 関数のベクトル化(優先度:中)

この関数は要素からノードへ、そしてノードから要素へと感度数値を伝播させます。

ベクトル化された実装案(概略):

def run1_vectorized(file_name, sensitivity_number, weight_factor_node, M, weight_factor_distance, near_nodes, nodes, opt_domains):
    # ノードごとの感度数値を計算(ベクトル化)
    sensitivity_number_node = {}
    for nn in nodes:
        if nn in M and M[nn]:
            elements = np.array(M[nn])
            weights = np.array([weight_factor_node[nn][en] for en in elements])
            values = np.array([sensitivity_number[en] for en in elements])
            sensitivity_number_node[nn] = np.sum(weights * values)
    
    # 要素の感度数値を更新(ベクトル化)
    sensitivity_number_filtered = sensitivity_number.copy()
    for en in opt_domains:
        if not near_nodes[en]:
            continue
            
        nn_array = np.array(near_nodes[en])
        try:
            weights = np.array([weight_factor_distance[(en, nn)] for nn in nn_array])
            values = np.array([sensitivity_number_node[nn] for nn in nn_array])
            
            denominator = np.sum(weights)
            if denominator != 0:
                sensitivity_number_filtered[en] = np.sum(weights * values) / denominator
        except KeyError:
            # エラー処理
            pass
    
    return sensitivity_number_filtered

4. 実装手順

  1. 関数の優先順位付け:

    • run2run3run_morphologyrun1 の順で実装を進める
    • 各関数について、現在の実装との互換性を保ちつつベクトル化を行う
  2. 段階的な実装と検証:

    • 各関数ごとに、ベクトル化バージョンを別名で実装(例: run2_vectorized
    • 元の関数を呼び出す部分を条件分岐で切り替え可能にする
    • パフォーマンス比較用のフラグを追加する(use_vectorized_filters = True
  3. コードの変更:

    # beso_filters.py の先頭に追加
    # ベクトル化フィルタの使用を制御するフラグ
    use_vectorized_filters = True
    
    # 関数の呼び出し部分を条件分岐で切り替え
    def run2(file_name, sensitivity_number, weight_factor2, near_elm, opt_domains):
        if use_vectorized_filters:
            return run2_vectorized(file_name, sensitivity_number, weight_factor2, near_elm, opt_domains)
        else:
            # 既存の実装...
    
  4. モジュールのインポート:

    • NumPy の関数を適切にインポートする
    import numpy as np
    

5. テスト方法

  1. 機能テスト:

    • 小規模なテストケースで、元の実装とベクトル化実装の結果を比較
    • 数値的な差異が許容範囲内かを確認
  2. パフォーマンステスト:

    • 実行時間の計測:
      import time
      start_time = time.time()
      result = run2(file_name, sensitivity_number, weight_factor2, near_elm, opt_domains)
      end_time = time.time()
      print(f"実行時間: {end_time - start_time}")
      
    • 複数のモデルサイズ(小/中/大)でのパフォーマンス計測
    • use_vectorized_filters フラグを切り替えて元の実装との比較
  3. メモリ使用量の監視:

    • 特に大規模モデルでは、メモリ使用量の増加に注意
    • 必要に応じて、大きな配列の処理をチャンク分割するなどの最適化を検討

6. 影響範囲と互換性

  1. 呼び出し側への影響:

    • 関数のシグネチャ(引数と戻り値)は変更しないため、beso_main.py からの呼び出しには影響なし
    • フィルタリング結果の数値的な変化は、最適化結果に若干の影響を与える可能性あり(丸め誤差レベル)
  2. データ構造の互換性:

    • 入出力は既存の辞書型データ構造を維持
    • 内部処理でのみ NumPy 配列を使用し、外部に渡す前に元の形式に戻す
  3. エラー処理:

    • 元の実装と同様のエラーチェックとメッセージを維持
    • 特にゼロ除算の処理など、エッジケースの扱いに注意

7. 追加の最適化の可能性

  1. データ構造の事前変換:

    • フィルタリング開始前に、頻繁にアクセスされるデータ構造を最適化された形式に変換
  2. 並列処理の導入:

    • NumPy の並列処理機能を活用(np.parallel など)
    • 大きな要素集合を複数のチャンクに分割して並列処理
  3. JIT コンパイラの活用:

    • Numba などの JIT コンパイラを導入して、さらなる高速化を図る
    from numba import jit
    
    @jit(nopython=True)
    def calculate_weighted_average(values, weights):
        return np.sum(values * weights) / np.sum(weights)
    

8. まとめ

フィルタリング計算のベクトル化は、特に以下の理由から効果的な高速化手法です:

  1. 実装が比較的容易であり、コードの互換性を維持できる
  2. 大規模モデルで顕著なパフォーマンス向上が期待できる(5〜10倍)
  3. 段階的に実装・検証できるため、リスクが低い

優先度の高い run2 関数から実装を開始し、テストとパフォーマンス測定を行いながら、他の関数へと拡張していくことをお勧めします。

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?