實作 Prompt API 時,請務必確保提示的品質和可靠性。
如要評估提示品質,請為您的用途開發一組完整的輸入內容和預期輸出內容。
如要評估提示是否符合各 Gemini Nano 模型版本的品質標準,建議按照下列工作流程操作:
- 執行評估資料集並記錄輸出內容。
- 手動評估結果,或使用 LLM-as-a-judge。
- 如果評估結果未達到品質標準,請反覆修正提示。舉例來說,您可以要求 Gemini Pro 等功能更強大的 LLM,根據實際輸出內容與所需輸出內容的差異,改善提示。
提示工程可提升工作成效,因此反覆調整提示至關重要。建議至少重複上述步驟 3 到 5 次。請注意,這種做法有其極限,因為最佳化最終會帶來遞減回報。
或者,如要大規模快速改善提示,可以使用以資料為準的最佳化工具,指定裝置端模型 (例如 gemma-3n-e4b-it)。
安全性
為確保 Gemini Nano 為使用者提供安全結果,我們實施了多層防護措施,以限制有害或非預期的結果:
- 原生模型安全:所有 Gemini 模型 (包括 Gemini Nano) 都經過訓練,可直接提供安全防護。也就是說,安全考量是模型的核心要素,而非事後才加入。
- 輸入和輸出內容的安全篩選器:系統會先根據安全篩選器評估輸入提示和 Gemini Nano 執行階段產生的結果,再將結果提供給應用程式。這有助於防止不安全內容通過篩選,同時確保內容品質不受影響。
不過,每款應用程式都有自己的使用者安全內容標準,因此您應評估應用程式特定用途的安全風險,並據此進行測試。
其他資源
- 你的 AI 有多厲害? - 這篇網誌文章說明如何使用 Gen AI Evaluation Service。
- 生成式 AI 評估服務總覽 - 說明文件,介紹如何評估生成式 AI 模型,以支援模型比較、提示改善和微調等工作。
- 執行以運算為基礎的評估管道 - 說明如何評估模型成效。