Agentic AI
一句話:不只是 LLM 回答 — 是一個可以用工具、做決策、自我檢查的系統。
Agent 的必要元件(AACR 2026 的標準):
- Tool use — 可以呼叫 API、打資料庫、執行 script
- Memory — 記住之前的步驟 / 結果
- Planning — 分解一個複雜問題成子任務
- Self-critic / reflection — 評估自己的答案、重試
- Adversarial verifier — 另一個模型扮演「挑錯員」角色,提高可信度
AACR 2026 的「真 agent 比例」很低:
- 20 篇 session “Agentic AI in Cancer” 的內容分佈:
- 真 agentic(含 self-critic + verifier)= ~3 篇
- Tool-using demo(有 API call 但沒自我驗證)= ~10 篇
- LLM wrapper 貼 “agent” 標籤(提示工程做裝)= ~7 篇
臨床想像的危險:
- 「我的 AI agent 會自動 chart review + PubMed + write 摘要」聽起來很美 → 實際上缺乏 verification 的 agent = 錯誤被放大
- LLM hallucination 會被 agent 的 tool-use 掩蓋(因為 output 看起來有 citation)
你可以借的 pattern:
- Self-critic:跑兩次,第二次讓模型 critique 第一次的回答
- Adversarial verifier:用不同模型 / 不同 prompt 檢查同一件事的答案是否一致
- Ground truth test sets:不要信 demo,要有 holdout benchmark
See in wiki
- 05-ai-workflow — Agentic AI 真假章節
- 18-bioinformatics-ml-single-cell
- foundation-model