本日はAWESOME-COPILOTの技術調査枠です。
AWESOME-COPILOTのドキュメントを読みながら実際に操作を試して記事に残します。
今回はカスタムインストラクションの一つAI Prompt Engineering & Safety Best Practicesについてです。
AI Prompt Engineering & Safety Best Practices
AI Prompt Engineering & Safety Best PracticesはAIプロンプト設計のベストプラクティスをCopilotに教えます。
AIプロンプトエンジニアリング、安全性フレームワーク、バイアス緩和、CopilotおよびLLM向けの責任あるAI利用に関する包括的なベストプラクティスです。
以下のページからAI Prompt Engineering & Safety Best Practicesのインストールボタンをクリックして取得します。
github.com
インストールボタンを押してAI Prompt Engineering & Safety Best Practicesをダウンロードします。
すると.github/instructions配下にインストラクションがインストールされます。

インストールしたインストラクションはCopilotの動作に自動的に適用されます。
本インストラクションをインストールするとCopilotは以下の点を守りながらプロンプト設計支援を行います
効果的なプロンプト設計の原則
Copilot は、プロンプトの質を高めるために次のような原則を強制します。
- 明確さ(Clarity):何を求めているか具体的に指示する
- コンテキスト:背景や前提条件の追加
- 制約(Constraints):出力形式・長さ・スタイルなどの条件
- 例示(Examples):良い例・悪い例を交えて解釈を補助する
プロンプトパターンの知識を適用
Copilot はプロンプト作成方法として一般的に使われるパターンも意識します。
- Zero-Shot(事前例なしでの明示的指示)
- Few-Shot(例を与えて期待結果を示す)
- Chain-of-Thought(思考過程をAIに示させる)
- Role Prompting(特定の役割や視点を設定)
安全性・バイアス対応
Copilotはプロンプトや生成結果に対して、以下のようなチェックを行います:
- 有害・危険な内容を出力しない
- 誤解を生みやすい内容を避ける
- 安全な応答構造に誘導する
Copilotは生成される情報が偏らないよう、プロンプトの設計時に以下のバイアス低減の視点でプロンプトを改善します。
- ステレオタイプを避ける言語の使用
- 文化的・人種的・社会的背景に配慮した表現
- 多様性を意識した出力指示
セキュリティ面
Copilot はプロンプトセキュリティの基本原則を尊重します。
- プロンプトインジェクションなどの脆弱性に注意
- 外部入力をそのまま指示に含めないよう警告・修正
- 入力検証とサニタイズ
- 危険な文字列・構造を取り除いて安全性を高める
- 機微情報の漏洩防止
- 個人情報や機密情報をプロンプトに含めない
テスト・検証・ドキュメント化支援
Copilot はプロンプト設計の品質管理にも以下のように寄与します。
- テストケース生成
- テスト用の代表例やエッジケースを示し、プロンプトの挙動をチェックするよう提案します。
- 自動評価・検証
- プロンプトの出力結果を、品質・安全性・一貫性の観点で評価し、フィードバックを返す設計支援を行います。
- ドキュメント化
- プロンプト設計ルールや使い方をきちんと文章化するテンプレートも提示します。