Skip to content

Latest commit

 

History

History
100 lines (71 loc) · 10.1 KB

File metadata and controls

100 lines (71 loc) · 10.1 KB

Azure AI Foundry でマルチモーダルモデルとエージェントを活用する

Azure AI Community Discord

Deploy to Azure

このリポジトリは、AI Tour ワークショップ「Azure AI Foundry でマルチモーダルモデルを活用する」のためのものです。

session banner

セッション概要

このワークショップでは、Azure AI Foundry ポータルで OpenAI モデルを操作するための基本概念とベストプラクティスについて、実践を通じて学びます。Skillable 環境が提供されている場合は、提供された仮想マシン (VM) と事前に準備された Azure リソースを使用してラボを進めます。このワークショップを個人で実施する場合は、Azure サブスクリプションを用意し、自分でリソースを Azure にデプロイする必要があります。

Deploy to Azure

概要

Azure OpenAI の GPT-4o マルチモーダルモデルを活用し、Azure AI Foundry で実践的な体験を提供します。GPT-4o-mini、DALL-E、GPT-4o-realtime を使用して、テキスト、音声、画像を生成するための基本概念とベストプラクティスを学びます。ユーザー体験を向上させ、イノベーションを促進する AI エージェントを作成します。

所要時間

75分

ローカライズ

言語 コード 翻訳された README へのリンク 最終更新日
中国語(簡体字) zh 中国語翻訳(簡体字) 2025-03-05
中国語(繁体字) tw 中国語翻訳(繁体字) 2025-03-05
日本語 ja 日本語翻訳 2025-03-05
韓国語 ko 韓国語翻訳 2025-03-05

学習目標

  • 大規模言語モデル(LLM)の仕組み、特にトークンの概念を理解する​
  • プロンプトエンジニアリングの手法とベストプラクティスを探る​
  • モデルが既存の知識をどのように適用するかを理解する​
  • Azure AI エージェントの構築を始める​
  • LLM アプリケーションでの関数呼び出しを実装する​

使用技術

  • Azure AI Foundry ポータル

ワークショップ手順

ワークショップのステップバイステップの手順は以下から参照できます:

追加リソースと継続学習

リソース リンク 説明
セッションスライド 表示 ワークショップで提示されたスライドを自身のペースで確認できます
Azure OpenAI サービスの紹介 Microsoft Learn モジュール Azure OpenAI サービスについて学ぶ
Azure OpenAI サービスのドキュメント Azure OpenAI サービスのドキュメント Azure OpenAI サービスの詳細を確認
Azure OpenAI サービスの価格 価格詳細 Azure OpenAI サービスの価格について学ぶ
Azure OpenAI サービスの透明性ノート 透明性ノート Azure OpenAI サービスのユースケース、能力、制限について学ぶ

コンテンツオーナー

Chris Testa-O'Neill
Gustavo Cordido

📢
Chris Testa-O'Neill
Bethany Jepchumba

📢

責任ある AI

Microsoft は、AI 製品を責任を持って使用するためにお客様を支援し、学んだことを共有し、透明性ノートや影響評価などのツールを通じて信頼に基づくパートナーシップを構築することに取り組んでいます。これらのリソースの多くは https://aka.ms/RAI で確認できます。
Microsoft の責任ある AI への取り組みは、公平性、信頼性と安全性、プライバシーとセキュリティ、包括性、透明性、説明責任という AI 原則に基づいています。

このサンプルで使用されている大規模な自然言語、画像、音声モデルは、不公平、不信頼、または攻撃的な方法で動作する可能性があり、結果として害を引き起こす可能性があります。リスクと制限については、Azure OpenAI サービスの透明性ノート を参照してください。

これらのリスクを軽減するための推奨アプローチは、有害な動作を検出し防止できる安全システムをアーキテクチャに組み込むことです。Azure AI Content Safety は、独立した保護層を提供し、アプリケーションやサービス内のユーザー生成コンテンツおよび AI 生成コンテンツの有害性を検出できます。Azure AI Content Safety には、テキストおよび画像の API が含まれており、有害な内容を検出することができます。Azure AI Foundry ポータルでは、Content Safety サービスを使用して、さまざまなモダリティでの有害な内容の検出に関するサンプルコードを確認し、試すことができます。次の クイックスタート ドキュメント を参照して、サービスへのリクエストを行う手順を確認してください。

もう一つ考慮すべき点は、アプリケーション全体のパフォーマンスです。マルチモーダルおよびマルチモデルのアプリケーションでは、パフォーマンスとは、システムがユーザーの期待に応え、かつ有害な出力を生成しないことを意味します。Performance and Quality and Risk and Safety evaluators を使用して、アプリケーション全体のパフォーマンスを評価することが重要です。また、カスタム評価機能 を作成して評価することもできます。

開発環境で AI アプリケーションを評価するには、Azure AI Evaluation SDK を使用できます。テストデータセットまたはターゲットを指定すると、生成された AI アプリケーションの出力が、組み込み評価機能または選択したカスタム評価機能で定量的に測定されます。Azure AI Evaluation SDK を使用してシステムを評価する手順については、クイックスタートガイド を参照してください。評価実行を実施した後、Azure AI Foundry ポータルで結果を可視化 できます。

免責事項:
この文書は、機械ベースのAI翻訳サービスを使用して翻訳されています。正確性を追求しておりますが、自動翻訳には誤りや不正確な部分が含まれる可能性があることをご承知おきください。元の言語で記載された原文が正式な情報源として優先されるべきです。重要な情報については、専門の人間による翻訳を推奨します。本翻訳の使用に起因する誤解や誤認について、当社は一切の責任を負いません。