2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIを使ってゲームを分析させてみる

Last updated at Posted at 2025-12-15

本記事は サムザップ Advent Calendar 2025 の15日目の記事です。


はじめに

初めまして。
ゲームの企画職は様々なゲームを日々インプットしてると思いますが、プレイしても詳細の仕様がわからず気になることもあると思います。その際に攻略サイトなどを見にいくこともあると思いますが、タイトルによっては正確な情報が海外のWikiにしか存在しないケースもあります。
本記事では、そういった実体験からゲーム分析にAIツールを活用したフローを紹介します。

全体フロー

今回試した手順は以下の3ステップです。

1.攻略Wiki内の URL 群を Gemini で抽出する

2.NotebookLM に重要なURLを「ソース」として追加する

3.NotebookLM にゲーム分析レポートを書かせる

英語Wikiしか存在しないゲームタイトルに対して、効率よくリサーチ用レポートを作成するために行った流れです。


1. 攻略WikiのURL取得(自動収集)

今回対象としたゲームは海外ゲームで、日本語情報がほぼ存在しません。
そのため、WikiトップページだけをNotebookLMに読み込ませても、十分な情報量のレポートが生成されない問題が発生しました。

例:

トップページ
https://wiki名.com/wiki/タイトル名_Wiki

詳細情報が書かれている個別ページ(数百ページ規模)
https://wiki名.com/wiki/Items
https://wiki名.com/wiki/Game_Mechanics
…など

NotebookLMは追加したURLの情報しか参照しないため、数百ページ分の個別URLをすべてソースとして登録する必要があります。
しかし手作業で行うのはあまりに大変なので、今回は Gemini にスクリプト生成を依頼して、自動でWiki内リンク一覧を抽出 しました。


実際に使用したプロンプト例

https://wiki名.com/wiki/Game_Mechanics
このページを参照して、
class="xxxxxx" の div 内にある a タグのリンクを抽出し、
https://wiki名.com/ を接頭辞としたURL文字列を作成するプログラムを書いて。

出力された Python スクリプト(抜粋)

import requests
from bs4 import BeautifulSoup
from urllib.parse import urljoin # URLを正しく結合するために使います

target_url = "https://gossip-harbor.fandom.com/wiki/Game_Mechanics"
base_url = "https://gossip-harbor.fandom.com"

print(f"ターゲットURL: {target_url}")
print(f"ベースURL: {base_url}\n")

try:
    response = requests.get(target_url)
    response.raise_for_status()

    soup = BeautifulSoup(response.text, 'html.parser')
    content_div = soup.find('div', class_='mw-content-ltr mw-parser-output')

    if content_div:
        links = content_div.find_all('a', href=True)
        
        print("--- 検出されたURL ---")

        full_urls = set()  # 重複排除
        for link in links:
            href = link['href']
            full_url = urljoin(base_url, href)
            full_urls.add(full_url)

        for url in sorted(list(full_urls)):
            print(url)

    else:
        print("エラー: 該当divが見つかりませんでした。")

except Exception as e:
    print(f"エラーが発生しました: {e}")

このスクリプトで抽出されたURL群をそのまま NotebookLM の「ソース」へまとめて登録しました。


2. NotebookLMにソースを追加 → レポート生成

抽出したリンクをまとめてNotebookLMに投入したところ、

・仕様の相互関係
・アイテムの生成条件
・イベント設計の特徴

といった、非常に整理されたレポートが生成されました。

トップページだけを追加した場合と比べて、
精度も網羅性も段違いに改善されました。

※注意点(規約について)
生成されたレポートは権利上公開を控えています。
ただし、個人利用・業務内の参考用としてNotebookLMで分析する分には問題ない範囲です。


まとめ:AI × Wikiでリサーチ効率が大幅向上

「あのゲームの〇〇ってどんな仕様だったっけ?」

という場面は多いと思います。

NotebookLMを使って 攻略Wikiをソース化しておくと、後から参照する際に非常に便利です。

もちろん、実際にゲームをプレイして理解することが大前提ではありますが、
AIを併用することで、リサーチ効率は確実に上がると感じました。

ぜひ参考にしていただければ幸いです。

2
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?