Agentic AI

一句話:不只是 LLM 回答 — 是一個可以用工具、做決策、自我檢查的系統。

Agent 的必要元件(AACR 2026 的標準):

  1. Tool use — 可以呼叫 API、打資料庫、執行 script
  2. Memory — 記住之前的步驟 / 結果
  3. Planning — 分解一個複雜問題成子任務
  4. Self-critic / reflection — 評估自己的答案、重試
  5. Adversarial verifier另一個模型扮演「挑錯員」角色,提高可信度

AACR 2026 的「真 agent 比例」很低

  • 20 篇 session “Agentic AI in Cancer” 的內容分佈:
    • 真 agentic(含 self-critic + verifier)= ~3 篇
    • Tool-using demo(有 API call 但沒自我驗證)= ~10 篇
    • LLM wrapper 貼 “agent” 標籤(提示工程做裝)= ~7 篇

臨床想像的危險

  • 「我的 AI agent 會自動 chart review + PubMed + write 摘要」聽起來很美 → 實際上缺乏 verification 的 agent = 錯誤被放大
  • LLM hallucination 會被 agent 的 tool-use 掩蓋(因為 output 看起來有 citation)

你可以借的 pattern

  • Self-critic:跑兩次,第二次讓模型 critique 第一次的回答
  • Adversarial verifier:用不同模型 / 不同 prompt 檢查同一件事的答案是否一致
  • Ground truth test sets:不要信 demo,要有 holdout benchmark

See in wiki