หน้านี้ให้ภาพรวมของแนวทางปฏิบัติแนะนำและเครื่องมือที่แนะนำสำหรับการ ทำงานกับโมเดลภาษาขนาดใหญ่ (LLM) เพื่อพัฒนาโซลูชันสำหรับ Google Workspace
เมื่อพัฒนาแอปใน Google Workspace โมเดลภาษาขนาดใหญ่จะช่วยคุณได้ใน วิธีต่อไปนี้
- สร้างหรือแก้ปัญหารหัสสำหรับการเรียกใช้ Google Workspace API
- สร้างโซลูชันตามเอกสารประกอบสำหรับนักพัฒนาซอฟต์แวร์ Google Workspace ล่าสุด
- เข้าถึงทรัพยากร Google Workspace จากบรรทัดคำสั่งหรือ สภาพแวดล้อมการพัฒนาแบบผสานรวม (IDE)
ใช้ Model Context Protocol (MCP) สำหรับการพัฒนา Google Workspace
โปรโตคอลบริบทของโมเดล (MCP) เป็นโปรโตคอลแบบเปิดที่ได้มาตรฐานซึ่งให้บริบทแก่ LLM และเอเจนต์ AI เพื่อให้ สามารถแสดงข้อมูลที่มีคุณภาพดียิ่งขึ้นในการสนทนาแบบหลายรอบ
Google Workspace มีเซิร์ฟเวอร์ MCP ที่มีเครื่องมือสำหรับ LLM เพื่อ เข้าถึงและค้นหาเอกสารประกอบสำหรับนักพัฒนาซอฟต์แวร์ คุณใช้เซิร์ฟเวอร์นี้ได้เมื่อ สร้างหรือใช้เอเจนต์ AI เพื่อทำสิ่งต่อไปนี้
- ดึงข้อมูลล่าสุดเกี่ยวกับ API และบริการของ Google Workspace
- ดึงข้อมูลเอกสารและข้อมูลโค้ดอย่างเป็นทางการของ Google Workspace
หากต้องการใช้เซิร์ฟเวอร์ ให้เพิ่มเซิร์ฟเวอร์นี้ลงในการกำหนดค่าไคลเอ็นต์ MCP
สำหรับ Gemini Code Assist ให้เพิ่มโค้ดต่อไปนี้ในไฟล์
settings.json{ "mcpServers": { "workspace-developer": { "httpUrl": "https://workspace-developer.goog/mcp", "trust": true }, } }สำหรับ Gemini CLI ให้เรียกใช้คำสั่งต่อไปนี้ จากเทอร์มินัลเพื่อเพิ่มเซิร์ฟเวอร์นี้เป็นส่วนขยาย
gemini extensions install https://github.com/googleworkspace/developer-tools
หากต้องการปรับปรุงเอาต์พุตจากเซิร์ฟเวอร์ ให้เพิ่มกฎที่สั่งให้ LLM ใช้
เซิร์ฟเวอร์เมื่อทำงานกับ Google Workspace API ตัวอย่างเช่น เมื่อใช้เซิร์ฟเวอร์เป็นส่วนขยาย Gemini CLI ให้เพิ่มกฎต่อไปนี้ลงในไฟล์ GEMINI.md
Always use the `workspace-developer` tools when using Google Workspace APIs.
ใช้ผู้ช่วยเขียนโค้ด AI
เราขอแนะนำเครื่องมือช่วยเขียนโค้ดด้วย AI ต่อไปนี้เพื่อนำไปใช้ใน เวิร์กโฟลว์สำหรับการพัฒนา Google Workspace
Google AI Studio: สร้างโค้ดสำหรับ โซลูชัน Google Workspace รวมถึงโค้ดสำหรับโปรเจ็กต์ Google Apps Script
Gemini Code Assist: รับความช่วยเหลือที่ขับเคลื่อนโดย AI ใน IDE จากโมเดล Gemini 2.5