4
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

Perplexityを信じてOSSを選んだら「思ってたのと違う」が続いた高校生の2025年

4
Posted at

はじめに

2025年、Perplexityを信じすぎた。

高校生として個人開発をしながら、気づいたらPerplexityなしで技術選定できない体になっていた。

ライブラリを選ぶとき、実装方法を調べるとき、何かを買うとき──「とりあえずPerplexityに聞こう」が口癖になっていた。

でも振り返ると、「思ってたのと全然違った」が何回も起きていた。


自分のPerplexity活用パターン

使っていた場面はだいたいこの3つ。

  • モノを買うとき:「予算◯万円で比較して」
  • 技術的な疑問:「Pythonで◯◯するならどのライブラリがいい?」
  • OSS選定:「認証系でおすすめのライブラリは?」

特にOSS選定と技術的な質問では、Perplexityの回答をそのまま実装の出発点にしていた。

Perplexityは通常の検索と違い、複数の情報源を統合して回答してくれる。
候補を3つに絞ってくれるのが特に便利で、気づいたらそれをそのまま採用していた。


「思ってたのと違う」が起きたパターン

① バージョンが違う

Perplexityが教えてくれたコードをそのまま書いたら、エラーが出た。

調べると、回答が参照していたのは旧バージョンのAPIだった。
メソッド名が変わっていた。引数の仕様が変わっていた。
それだけで1〜2時間が消えた。

バージョンを指定せずに質問すると、古い情報をもとにした回答が返ってくることがある。
「Python 3.12環境で」「v2.x系で」 など、バージョンを明示するのが大事。

② そもそも「できない」ことを「できる」と言われた

「◯◯ライブラリでXXXの処理はできますか?」と聞いたら「はい、以下のように実装できます」と返ってきた。

コードを書いて動かしたら、そんな機能は存在しなかった。

公式ドキュメントにも、GitHubのissueにも、そんな使い方は一切書かれていない。
自信満々に教えてくれたのに、完全なハルシネーションだった。

AIが「できる」と言っても、公式ドキュメントで確認するまでは「できるかもしれない」に過ぎない。
特に「〇〇はできますか?」という質問は肯定的な回答が返りやすいので注意。

③ 選んだOSSが自分のやりたいことに合っていなかった

「◯◯に使えるライブラリ教えて」と聞いて候補を絞り、そのまま採用して実装を進めた。

しかし途中でわかった。

そのライブラリが得意なユースケースと、自分がやりたかったこととが微妙にズレていた。

Perplexityの回答が間違っていたわけじゃない。
でも「候補を絞った」だけで「自分のケースに合うか確認していなかった」。


Perplexityが悪いんじゃなくて、使い方の問題だった

正直に言うと、最初は「Perplexityの精度が低い」と思っていた。

でも振り返ると、問題は自分の使い方にあった。

期待していたこと 実際にPerplexityができること
最新バージョンの正確なコード その時点での一般的な情報の整理
自分のプロジェクトに最適な選択 一般的な用途での候補の提示
実装可能かどうかの保証 可能性の提示(幻覚あり)

2026年、変えたこと

今は意識的にこのフローにしている。

具体的には以下のチェックを通すようにした。

  • バージョンを明示して質問する(「Python 3.12で」など)
  • 「できる」と言われたことは公式ドキュメントで確認する
  • 自分のユースケースを具体的に伝える
  • 「なぜこれを選ぶか」を一文で言えるまで採用しない(まだ習慣化中)

特に「ユースケースを具体的に伝える」が一番効いた。

bad_question.py
# 悪い質問例(文脈がない)
# 「Pythonで非同期HTTPリクエストするライブラリは?」
good_question.py
# 良い質問例(文脈を渡す)
# 「Python 3.12 + asyncio環境で、100件以上の並列リクエストを
#   送るスクレイピング用途に向いているHTTPライブラリは?
#   requestsは同期なので除外してください」

質問の粒度を上げるだけで、ズレが格段に減った。
Perplexityに限らず、生成AI全般に使えるコツだと思う。

他にも試したこと(おまけ)
  • Perplexityに「この回答に自信はありますか?」と追加で聞く(効果は微妙)
  • 回答の参照元URLを必ず開いて確認する
  • ChatGPTと両方に聞いて比較する

いずれも「公式ドキュメントを確認する」には及ばなかった。
結局、一次情報に当たることに代わるものはなかった。


おわりに

「AIに聞けばわかる」の時代に高校生をやっている。

でも2025年に学んだのは、
AIが「できる」と言っても、自分が確認するまでは「できるかもしれない」に過ぎない
ということだった。

Perplexityは最高の出発点だ。でも終点にしてはいけない。

同じような「思ってたのと違う」を経験した人、いますか?

4
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
4
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?