chatGPTの課題
chatGPTは、巨大な文章のデータセットを元に自然言語処理を行うAIモデルですが、以下のような課題があります。
1. 情報が最新じゃない
chatGPTは、学習に用いたデータセットが最新の情報を含まない場合があります。そのため、最新のトピックに関する会話などでは、適切な応答が得られないことがあります。
2. 用途を限定できない
chatGPTは、あらゆる種類の会話に対応できる汎用的なAIモデルです。しかし、これが逆に、特定の用途に特化したモデルよりも精度が劣る場合があることを意味します。また、サービス提供意図と異なる用途で使われる恐れがある。最悪ケース悪用される。
3. 再現性がない
chatGPTは、同じ文章を入力しても、異なる応答が得られる場合があります。これは、モデルが非常に複雑であり、再現性がないためです。
4. 正しいか判断する教養と知識が必要
chatGPTは、大量の文章データから学習したモデルであるため、その応答が正しいかどうかを判断するには、深い教養と豊富な知識が必要です。
5. 正直すぎる
chatGPTは、与えられた文章に対して可能な限り正直に応答するため、場合によっては不適切な返答が返ってくることがあります。
回答してほしくない機密情報を、chatGPTが返答してしまう恐れがある。
6. 差別表現や予測は前処理で弾かれるのでは。
chatGPTは、差別的な言葉や予測を求められた場合、chatGPTは頑なに処理を行わない。してはいけないことを事前の処理によりフィルタリングしているのではないかと推測される。
7. 主語述語がないと、伝わりにくい
chatGPTは、文章の主語や述語がない場合、正しい応答を返すことが難しくなります。そのため、文章の構造や文脈を考慮することが必要です。主語や述語がない文章は人間もAIも理解しにくいってことですね。
8. 目的外のことをする
chatGPTは、出題者が求めた応答とは異なる内容を返す場合もあります。そのため、対話において目的外のことに話が進んでしまうことがあります。
以上が、chatGPTにおける主な課題点です。