此儲存庫是為 AI Tour 工作坊設計的:與 Azure AI Foundry 的多模態模型互動
這場工作坊旨在為您提供有關如何在 Azure AI Foundry 入口網站中與 OpenAI 模型互動的核心概念與最佳實踐的實作介紹。如果您擁有 Skillable 環境,將使用提供給您的虛擬機器和預先配置的 Azure 資源來完成實驗室。如果您自行進行此工作坊,則需要擁有 Azure 訂閱並自行在 Azure 上配置資源。
透過 Azure OpenAI 的 GPT-4o 多模態模型,參與這場 Azure AI Foundry 的實作體驗。學習核心概念與最佳實踐,利用 GPT-4o-mini、DALL-E 和 GPT-4o-realtime 有效地生成文字、聲音和影像。創建能提升用戶體驗並推動創新的 AI 代理。
75 分鐘
語言 | 代碼 | 連結至翻譯版 README | 最後更新日期 |
---|---|---|---|
中文(簡體) | zh | 中文翻譯(簡體) | 2025-03-05 |
中文(繁體) | tw | 中文翻譯(繁體) | 2025-03-05 |
日文 | ja | 日文翻譯 | 2025-03-05 |
韓文 | ko | 韓文翻譯 | 2025-03-05 |
- 理解大型語言模型的運作方式,包括 token 的概念
- 探索提示工程的技術與最佳實踐
- 理解模型如何應用現有知識
- 開始構建 Azure AI 代理
- 在 LLM 應用中實現函數調用
- Azure AI Foundry 入口網站
詳細的工作坊步驟指導如下:
- Skillable 工作坊指導
- 直接在 Azure 上部署的工作坊指導 - 適用於現場站點
資源 | 連結 | 描述 |
---|---|---|
課程簡報 | 查看 | 按自己的節奏回顧工作坊中的簡報 |
Azure OpenAI 服務入門 | Microsoft Learn 模組 | 了解更多有關 Azure OpenAI 服務的資訊 |
Azure OpenAI 服務文件 | Azure OpenAI Service documentation | 了解更多有關 Azure OpenAI 服務的資訊 |
Azure OpenAI 服務定價 | 定價詳情 | 了解更多有關 Azure OpenAI 服務的定價資訊 |
Azure OpenAI 服務透明性說明 | 透明性說明 | 了解更多有關 Azure OpenAI 服務的使用案例、功能與限制 |
![]() Gustavo Cordido 📢 |
![]() Bethany Jepchumba 📢 |
Microsoft 致力於幫助客戶負責任地使用我們的 AI 產品,分享我們的經驗,並通過透明性說明和影響評估等工具建立基於信任的合作關係。許多這些資源可以在 https://aka.ms/RAI 找到。 Microsoft 的負責任 AI 策略基於我們的 AI 原則,包括公平性、可靠性與安全性、隱私與安全性、包容性、透明性和問責性。
像本範例中使用的大規模自然語言、圖像和語音模型可能會表現出不公平、不可靠或冒犯性的行為,從而導致傷害。請參閱 Azure OpenAI 服務透明性說明 以了解相關風險和限制。
減輕這些風險的建議方法是在您的架構中包含一個安全系統,該系統可以檢測和防止有害行為。Azure AI Content Safety 提供了一個獨立的保護層,能夠檢測應用和服務中用戶生成和 AI 生成的有害內容。Azure AI Content Safety 包括文字和圖像 API,可幫助您檢測有害材料。在 Azure AI Foundry 入口網站中,Content Safety 服務讓您可以查看、探索和嘗試檢測不同模態有害內容的範例代碼。以下 快速入門文件 指導您如何向服務發送請求。
另一個需要考量的方面是整體應用效能。對於多模態和多模型應用,我們認為效能意味著系統能如您和您的用戶所預期運行,包括不生成有害輸出。重要的是使用 效能與質量以及風險與安全性評估工具 評估整體應用效能。您還可以創建並使用自訂評估工具 進行評估。
您可以在開發環境中使用 Azure AI 評估 SDK 評估您的 AI 應用。透過測試數據集或目標,您的生成式 AI 應用生成的結果可以使用內建或自訂評估工具進行量化測量。要開始使用 Azure AI 評估 SDK 評估您的系統,您可以參考 快速入門指南。完成評估運行後,您可以在 Azure AI Foundry 入口網站中視覺化結果。
免責聲明:
本文件已使用機器翻譯服務進行翻譯。雖然我們努力確保準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。原文的母語版本應被視為具有權威性的來源。對於關鍵信息,建議尋求專業人工翻譯。我們對因使用本翻譯而引起的任何誤解或誤讀不承擔責任。