Delphi 12.2で追加されたスマート支援機能を試します。
まず,Ollamaを使い,ローカルLLMが動くようにします。
Ollamaでcodellamaを使えるようにする手順については,以下の記事で確認してください。
IDEのスマート支援機能を設定する
codellamaが動くことを確認した後で,DelphiのIDEを起動し,スマート支援機能の設定をします。
ツール - オプション でオプションダイアログを開き,IDE - スマート支援機能 を選択すると以下のダイアログが表示されます。
- AIエンジンの有効化 をチェック
- エディタのデフォルト AI に Ollama を選択
- チャットウインドウのデフォルト AI に Ollama を選択
-
Ollamaタブを選択
- 有効 をチェック
-
BaseURL に
http://localhost:11434
と入力 -
モデル に
codellama:latest
と入力
入力が終わったら,保尊ボタンをクリックしてオプションダイアログを閉じます。
スマート支援機能を使うには,コードエディタを表示して編集画面を右クリックして表示されるポップアップメニューから Smart CodeInsightを選択すると以下のようなサブメニューが表示されます。
- AIチャット チャットウインドウが表示され,AIとチャットすることができます
- バグの検知 選択されたコードの潜在的なバグを検知します 結果が下部にコメントとして追加されます
- コードの説明 選択されたコードの下部に説明が追加されます
- コメントの追加 選択されたコードにコメントを追加します
- コードの補完 選択されたコードを補完します
- コードの最適化 選択されたコードを最適化します
- ユニットテストの追加 選択されたコードにユニットテストを追加します
- アセンブリに変換 選択されたコードをアセンブリコードに変換します
- Delphi に変換 選択されたコードをDelphiに変換します
- C++ に変換 選択されたコードをC++Builderコードに変換します
AIのチャットは日本語で質問すると日本語で返してくれますが,コードの説明やコメントは英語になります。
謝辞
以下のEmbarcaderoの記事を参考にしました
スマート支援ダイアログの設定について以下のDockWikiを参考にしました
Ollamaの設定について以下のDockWikiを参考にしました(Dockerを使っています)
※ Dockwikiはどちらも現時点ではまだ日本語に翻訳されてません。
間違いがあったらご指摘いただけるとありがたいです。