2025年、AI開発は新たな潜圧を迎えました。NVIDIA GTC 2025で発表された「Chiral」は、人間の思考、そのものをデータとして訓練された世界初のAIモデルです。通俗的な文字や画像に基づくものではなく、脳波、自分の思考の雰囲気を直接学習し、人間の意図を読み取ることが可能な、新型AIです。
☕ 科学技術的能力とChiralの構造
Chiralは、科学技術的に見て、常識はずれの仕組みを持っています。通常のLLMは「言葉」や「テキスト」を計算データとして利用しますが、Chiralは「脳波のパターン」をもとに、人間の意思、行動意図を、データストリームとして入力にしています。
使用されるデバイス
- Stentrode :脳内に持続的に埋め込むことで、効率的に脳波データを通信。
- フィールドは主に「モーターコーテックス」を記録し、ゆく用されるインターフェースや操作の記録を訓練データに使用します
モデル構造
GPTやBERTと同じTransformerに基づく構造を持っていると思われ、自分の思考の流れを「次の脳波を予測」するような、実行性の高いAIとして評価されています。
⚖️ Chiralの訓練手段
脳波データの収集
Synchron社は、人間の脳波を素のまま通信で読み取り、それに対応するアクションをデータにしていました。
- 現実の試行では、Apple Vision Proの系で眺めることで、ユーザーが操作を意図するだけで家電を操作できました
シミュレーションの活用
- 実際のシノビオームを用いて人間が操作する形をシミュレート。
- ブラインシミュレータで視覚を削減させないまま脳波を発火させる技術
⛔️ 主要な他機能と合わせる利点
- 音声認識モジュールとの合製
- VR/実体インタラクティブシステムとの統合
- 情報感覚付きデバイスとの連携
❓ 値値される道徳的問題
脳内情報のプライバシー
- 思考の継続的な読み取りは、当事者の同意の充切な験明が必要
- 脳内の個人情報を商用に活用する場合、保護法的技術が要求
高度な情報解析による中毒性
- 脳波を通じて、感情や意思を命令として読み取ることの危険
- 通信のハッキングや情報の改ざんに対する抽象的リスク
ユーケース & 実践
使用例
- 幸福支援デバイス
- 工場内ロボットの操作
- 効率の高いオフィス操作
- 認知疾患の補俑支援
- 高齢者アシスティブシステム
これからの視野
Chiralは、AIが「言葉」ではなく、「思考」そのものを計算する新時代の開開を告げています。
人間の内面を知るAIは、利用法によっては削るような利点と問題を両立させます。
今後、Chiralが「人間の思考を手にするAI」として継続的に発展するためには、利用者の議論と社会的同意が必須です。
今回は「Chiral」に関する技術的な解析から道徳的論点まで、詳細にみてきました。
もっと知りたい主題があれば、次回以降でもご紹介します🚀