背景
今やAIを使うことが当たり前な時代になってきているのではないでしょうか。
日々新しい生成AIが出てきたり、知らない機能が増えていたりと最新情報をキャッチアップしていくだけでも大変です。
自分はエンジニアとしてのキャリアをスタートさせた時点から約1年ちょっとAIを使っていない時期を過ごし、その後日常的にAIを使い続けています。
(※執筆時点でエンジニア歴としては大体2年半ちょっと?もうすぐ3年目になりそうなところです。)
ちなみにこの辺りのAIを使ってきました。
- ChatGPT
- Claude
- Phind
しかし、AIを使うことにどこかモヤっとした不安が付き纏っている感覚があるのです。
そこで、これからエンジニアとしてさらに成長していく上で
今のAIとの付き合い方は適切なのか、どういったリスクがあるのかを改めて考えたいと思い記事にしました。
AIを活用するリスク
まずはAIを活用するリスクについてどんなものがあるかを洗い出したいと思います。
今の自分の不安を言語化したものなので主観的ではありますが、
ざっと3点ほど思い浮かびました。
- ハルシネーションを見分けられず、誤ったアウトプットを出す可能性
- 誤った知識が身に付く可能性
- AIを使用しなかった場合に触れられていた知識に対する機会損失
では、それぞれ深堀っていきたいと思います。
ハルシネーションを見分けられず、誤ったアウトプットを出す可能性
これはAIが生成したアウトプットをそのまま使うことで、
仮に誤った情報が生成された場合、それに気付かず丸々取り入れてしまうことで適切でないアウトプットを生み出す可能性です。
これはいろいろなケースが考えられますが、
例えばAIにコードを生成してもらいそれをそのまま実装した結果、
不具合があるのに気付かずシステムへ反映されてしまうというものです。
抽象的になりますが、対策としては基本的に生成された結果は全て鵜呑みにしないということが大切でしょう。
根拠を探しに行き、自分で正しいと思えるまですり合わせをすることが対策になると思います。
プロなら当たり前ですが、アウトプットに責任を持つ意識が重要ですね。
誤った知識が身に付く可能性
これも上記と似ていますが、
AIが誤った回答をしてもそれに気付かず正しい情報として捉えてしまい
それが知識として定着してしまうということです。
何かしらのアウトプットとして出て第三者に評価されるか、
正しい情報に触れないと気付けないため危険だと感じています。
対策としては、多方面から情報を仕入れることがいいかなと思いました。
ただこれは正直AIに限った話ではありません。
世の中には誤った情報が出回ってしまっていることが多々あるので、
1つの情報源に頼らず複数の情報源を見ることがこのリスクへの対策になりそうです。
AIを使用しなかった場合に触れられていた知識に対する機会損失
これはAIがある現在と、なかった頃を比べて感じたものです。
AIがない場合、何かしらの答えに辿り着くまで色々なソースを探しにいくと思います。
公式ドキュメント、技術記事、質問サイトなどから目的にあった情報を探すと思いますが
その過程で知りたいことに対する周辺知識や、今まで全く知らなかった新情報に出会えていました。
芋づる式に出てくる知らない単語を調べることで、点となっている知識を線にしていく作業があったというイメージです。
これについては機会損失的な話なので、具体的な影響に気付けないことがリスクだと感じました。
対策としては、AIが生成した内容について知らない内容があれば深堀することがいいでしょうか。
対話型のAIであれば、前提となる知識や知らない単語をその場で深堀することができます。
それに加えて上記で述べた対策を絡めると、
参考記事を漁って複数の情報源に触れる・または書籍などの信頼できるソースを確認するという作業を割り込ませると良さそうです。
また、基本的な内容であれば資格取得の学習も良いと感じています。
資格試験であればその分野に関する体系的な知識が身につきますし、基本的に間違いがないので。
最後に
AIとの付き合い方についてなんとなく抱えていた不安を言語化してみて、
ざっくりと対策を考えてみました。
皆さんはどういった不安を抱えていますでしょうか?
また、皆さんであればこの記事で挙げたリスクに対しどういった対策を取られるでしょうか?
ぜひお気軽にコメント頂けますと幸いです!