1.はじめに
エンジニアとして働いていると、日々大量の技術情報が流れてきます。
特に世は大生成AI時代、この激しい変化の中でエンジニアとして本当に必要な能力はなんでしょうか。
私は最初こそ技術力を身に着けるべしと思っていたのですが、技術的な面をAIが代替えしていく現状から、本当に必要になるのは「情報のキャッチアップ能力」だと感じてきました。
そこで、情報のキャッチアップを自動化して習慣づけるために、自分オリジナルの情報収集ハブを構築できるツールを作ってみたというのが今回のお話になります。
2.作ったもの
実際に作ったものが下記となります。
収集対象の技術ブログなどの RSS から記事一覧を自動取得し、GitHub Pages 上で確認できるツールになります。

リポジトリ
■ 仕組みについて
仕組みとしては次の流れで自動化しています。
- 情報収集の対象となるサイトの RSS を JSON ファイルで定義
{
"categories": [
・・・
{
"name": "AWS",
"id": "aws",
"feedUrl": "https://aws.amazon.com/jp/about-aws/whats-new/recent/feed/",
"webhookEnvKey": "DISCORD_WEBHOOK_AWS",
"siteName": "AWS What's New"
},
{
"name": "ゲーム",
"id": "game",
"feedUrl": "https://automaton-media.com/feed/",
"webhookEnvKey": "",
"siteName": "AUTOMATON"
}
]
}
- GitHub Actions のワークフロー内で上記 JSON ファイルから記事一覧を取得
- (オプション)Discord の Webhooks 機能でチャンネルに通知
- 取得した記事一覧を GitHub Pages 上にWEB サイトとして公開
このフローを定期自動させて常に最新の情報が自動収集される仕組みになっています。
補足:ツールを使って自分専用の情報収集ページを作る方法
- 下記リポジトリをクローン/フォークする
- 情報収集の対象となるRSS情報を
categories.jsonとして定義
- 自身のリポジトリに反映する
その後、ワークフロー(feed-collector-and-poster)が自動実行されるのを待つか、手動で実行していただいても大丈夫です。
3.工夫点
今回このツールを作るにあたって、工夫したポイントをいくつか紹介します。
■ 自分オリジナルの情報収集ハブを構築できる仕組み
このツールの一番の特徴は、「自分専用の情報収集ハブを簡単に作れる」ことです。
情報収集の対象を JSON(categories.json) で定義し自分の興味に合わせて自由にカスタマイズできます。
このJSON ファイルさえリポジトリにプッシュしてしまえば、後は自動で情報収集され WEB ページとして公開されます。
■ お金のかからない仕組み
情報収集にお金をかけたくなかったので、GitHub 上のお金のかからない機能で完結させています。
実行基盤として GitHub Actions、収集した記事一覧の公開先には GitHub Pages を利用しています。
- 情報収集+記事一覧の生成(GitHub Actions)
- Web サイトとしての公開(GitHub Pages)
まだ作ったばかりのツールなので、
「試してみて合わなければすぐやめられる」ことも意識して構成しています。
■ データ管理の工夫
個人開発で意外とハマりやすいのが、データの溜めすぎ問題です。
このツールでは、RSS から取得した記事一覧情報が溜まり続けてリポジトリが肥大化してしまいます。
お金がかからないとは言え、GitHub リポジトリで完結させてる都合上制約があります。
そのため、リポジトリが肥大化しないような工夫をしています。
例えば、GitHub Pages として公開するリソース範囲を限定していたり、
- name: Upload artifact for GitHub Pages
uses: actions/upload-pages-artifact@v3
with:
path: "./docs"
- name: Deploy to GitHub Pages
id: deployment
uses: actions/deploy-pages@v4
GitHub Actions 上で実行される JavaScript 側で一定期間より古い記事情報を除外する機能の実装などしています。
4.おわりに
最後に、今後追加したいことなどいくつか挙げておきます。
■ RSS がないサイトへの対応
今段階では RSS があるサイトのみを対象としていますが、将来的に RSS がないサイトへの対応もしてみたいです。(sitemap や HTML 解析)
Claude Codeの情報収集を一番自動化したいのですが、公式ドキュメントやブログはRSSがないので収集方法を模索中です。。
■ 通知機能の拡張
本記事では軽い紹介に留めましたが、
収集した記事情報を Discord のチャンネルに自動投稿する機能を実装しています。
そのため、Discord 以外(Slack や Teams など)への拡張もしてみようかと思います。
■ ひとこと
あとは細かい機能修正や追加を考えていますが、あくまで情報収集が目的なので、修正作業に熱中しすぎないように気をつけたいです。
今はまだシンプルな構成ですが、少しずつ拡張しながら「自分にとってちょうど良い情報収集ハブ」に育てていけたらと思っています。