0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

AIと無料インフラで「東京のDJイベント情報サイト」を自動生成している話

0
Posted at

という、ローカルDJイベント情報を集約するサイトを作りました。

まだβ版ですが、東京のDJイベント情報を収集・整理して一覧化しています。

今回は「なぜ作ったか」ではなく、どう作ったか

の技術寄りの話を書きます。

かなり2026年っぽい構成です。

やりたかったこと

まず前提として、
DJイベント情報って散らばりすぎています。

  • X
  • Instagram
  • Club公式サイト
  • Resident Advisor
  • Flyer画像
  • 個人告知

しかも、

  • フォーマットがバラバラ
  • 情報が途中で変わる
  • 同じイベントでも表記揺れする
  • DJ名も揺れる
  • 日付の書き方もバラバラ

普通にスクレイピングしただけでは綺麗なDBになりません。

つまり必要だったのは、

「収集」

ではなく、

「正規化」

でした。

ここでLLMがかなり効きます。


全体構成

かなり雑に言うと:

X API / Google API / Web ↓ Event raw data ↓ LLM normalize ↓ Structured Event DB ↓ Static site generate ↓ Cloudflare Pages

みたいな構成です。

思想としては、

「情報収集 → AI正規化 → 静的化」

を徹底しています。


情報源

X API

まず一番強い情報源はX。

DJイベントって、

「知り合いの告知」

で回っているので、
ここを見ないと始まりません。

収集しているのは:

  • イベント告知
  • 出演告知
  • リポスト連鎖
  • フライヤー画像
  • 日付情報
  • venue名
  • DJ lineup

など。

ただし問題が大量にあります。


問題1: 人間が書いている

例えば:

text 今週金曜!! 渋谷で回します!! 遊び来て〜

だけ書かれてたりする。

日時どこやねん。


問題2: 情報が画像にしかない

DJ界隈、いまだにフライヤー文化が強い。

つまり:

  • 日時
  • venue
  • lineup

全部画像。

OCR必須。


問題3: 表記揺れ

例えば:

  • VENT
  • Vent Tokyo
  • vent
  • ベント

全部同じ。

DJ名もかなり揺れる。

問題4

X Apiには無料枠がなく、金がかかる…
個人の財布には、地味に痛い。


Google API

Google Maps / Place API 系も利用。

これは:

  • venue情報
  • location正規化
  • geo補完

などに使っています。

特に箱情報は、
Google側の方が安定してる。


LLMによる正規化

ここが今回の本体。

普通のスクレイピングと違うのは、

「AIをparserとして使っている」

点。

例えば生テキストやOCR結果をそのまま食わせて、

json { "event_name": "...", "venue": "...", "date": "...", "djs": [...] }

へ変換。

さらに:

  • DJ名統合
  • venue統合
  • 日付補完
  • typo修正
  • event分類

までやる。

つまり、

「曖昧な人間世界」

を、

「構造化データ」

へ変換している。

昔みたいに正規表現地獄を書かなくていい。


GitHub Actions運用

運用の自動化は基本。

イベント収集パイプラインは基本:

GitHub Actions

で回しています。

例えば:

  • 定期クロール
  • API fetch
  • OCR
  • LLM normalize
  • static build

全部Actions。

つまり:

サーバー常駐ゼロ。


Cloudflare Pages

フロントはCloudflare Pages。

これもかなり良い。

理由:

  • 静的サイト爆速
  • CDN込み
  • 無料枠強い
  • GitHub連携簡単

Phase0には十分。

今の時代、
「まず動くもの出す」なら、
ここかなり強い。


最近の開発、かなり変わった

最近、2026年、作っていて強く感じたのが、

「AIによって個人開発の次元が変わった」

こと。

昔なら:

  • scraper書いて
  • parser書いて
  • 正規化地獄
  • サーバー運用
  • cron
  • queue
  • worker
  • infra

みたいな感じだった。
面倒なのは全部後回し。品質向上まで手が回らない。、

でも今は、

「LLMが時間と曖昧さを吸収してくれる」

ので、

人間は:

  • 価値体験
  • UX
  • 情報設計
  • コアバリューの創出

に集中できる。

これはかなり大きい。


Claude Code + AI駆動開発

最近はかなりAI駆動で開発しています。

特に:

  • Claude Code
  • GPT系
  • Codex

を組み合わせると、
小規模サービスの開発速度がかなり変わる。

今回も:

  • parser
  • crawler
  • schema
  • UI
  • build pipeline

かなり(ほぼ全部)AIに投げています。

ただ重要なのは、

「何を作るか」「何をコアバリューとするか」「ペインやエッジはどこか」

だけは人間が感覚を持つ必要がある。
ペインやコアバリューが見えない分野は、いくらAIがあってもリーチできません。

その肌感覚は、その世界に身を投じてないと絶対にわからない。


最後に

まだPhase0です。

今はひたすら:

  • イベント情報集める
  • 正規化する
  • 可視化する

だけ。

でもまずは、

「今週どんなDJイベントあるん?」

を普通に見れる状態を作りたい。

ローカルDJカルチャー、
情報が散らばりすぎてるので。

AI時代、
こういう

「人間世界の曖昧情報を構造化する」

サービス、
かなり増えそうだなと思っています。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?