omuronの備忘録

個人的な備忘録

「LayerX 名村さんに聞く!2025年AIエージェント時代の可能性と実践」 #AIエージェント_findy 雑メモ

LayerX 名村さんに聞く!2025年AIエージェント時代の可能性と実践

LayerX 名村さんに聞く!2025年AIエージェント時代の可能性と実践 - connpass

申込みが1700人超えてます!

実践の中で見えてきたAIエージェント設計のこれから

  • 今の名村さんの役割
    • Enabling Team
    • CEO室:AI Agentは注力技術
  • AIエージェントとは?
    • 自律的に行動し、意思決定を行うことができる
  • なぜAIエージェント?
    • LLMによって、ソフトウェアが 「考える力」 を手に入れた
    • ソフトウェアの能力が限界突破した
  • プログラムはCPUが理解できる命令の集合体
    • 順序性・論理性が成立してる必要がある
    • 定義された入力に対して、定義された出力を返す
  • プログラムに対してLLMが受け付けることができる予測不要な入力とは?
    • LLMはベクトルで理解するので入力に順序性や論理性が必須ではない
    • LLMは文書や画像を雰囲気(ベクトル)で認識する人間みたい
    • 予測不要な入力に対応したことでソフトウェアに対する考え方が根本的に変わった
      • いままでは順序性や論理性をもつ必要あり(プログラミング)
        • スキーマー定義が必要で構造化データじゃないと処理が難しい
      • これからは順序性や論理性をもつ必要がない(LLM)
        • 確定的なスキーマー定義がない曖昧でも処理可能
  • ソフトウェアはプログラミングから指示の時代へ
  • AIエージェントを指示するプラットフォームはまだ必要、Pythonベースの技術とエコシステムが多い
    • WebはTypeScriptがオススメ
  • エージェントフレームワークを参考に技術要素を見ていく
    • Model Routing:複数モデルを同じI/Fで扱う
    • Workflow:エージェントが各プロンプトを実行し結果を得る、ワークフローエンジンを使うと実装が楽に
    • Tool:外部APIを呼び出す
    • Memory:一連の処理を記憶して圧縮(ベクトル化)して格納
    • RAG:エージェントが必要なデータをトークン化(ベクトル)して格納
    • Evaluation:エージェントの出力を評価
  • これらをAIエージェントがHUBになって呼び出す
    • 指示に対して自分で考えて実行してくれる
  • Prompt Observability
    • 利用モデル、プロンプトバージョン、入出力ログ、トレースとの結合、レイテンシ、評価結果
  • AIエージェントの弱点
    • 考える時間(数ミリsecなどで処理できない)、コスト(かなり高い)、モデルの更新、不確実性(出力を予測できない、動かないケースの対応が大変)
    • プロンプトインジェクション対策、指示に対して従順に動く
      • 対策の一つとしてAIが持ってる機密情報を減らす
  • LLMで全職種のEnablingができる可能性ができた
  • LLMの限界
    • 言語モデルなので言語の表現能力が限界になる
    • マルチモーダルが進化したら人間の限界を超える可能性もありそう
  • ソフトウェアエンジニアはどうなる?
    • いかに優秀なベクトルを作れるかが優秀なエンジニアになっていく

自分がモヤッと思ってたことを的確に言語化してくれて説明していただけるイベントでした。
LLMが考える力を持ってて今までのソフトウェアとは違うととても感じるし、GitHub Copilot使ってるとソフトウェアはプログラミングから指示の時代になってるととても感じますね。