OpenAIでのCodexの安全な実行
概要
OpenAIは、コーディングエージェントであるCodexの安全な展開と運用を確保するために、いくつかの対策を導入しました。これには、明確な技術的境界の設定、低リスク操作の迅速な実行の許可、および高リスク操作に対する明示的な承認の要求が含まれます。主な制御には、管理された構成、制約された実行、ネットワークポリシー、およびエージェントネイティブログがあります。Codexは制限された環境内で動作し、承認とサンドボックスが連携して実行制限を定義し、これらの境界を超える操作のレビューをトリガーします。自動レビューモードは通常の要求を合理化し、ネットワークポリシーは既知の宛先へのアウトバウンドアクセスを制限します。認証はOSキーリングを通じて安全に管理され、ChatGPT経由でのログインが強制され、使用状況がエンタープライズワークスペースの制御に結び付けられます。ルールはシェルコマンドを管理し、無害なコマンドは承認なしで許可し、危険なコマンドはブロックまたはレビューを要求します。これらの制御は、クラウド管理要件、macOS管理設定、およびローカルファイルを通じて強制されます。可視性のために、CodexはOpenTelemetryログのエクスポートをサポートしており、従来のセキュリティログを補完するエージェント認識型のテレメトリを提供し、操作の「理由」を説明します。このテレメトリは、AIセキュリティトリアージエージェントによって、期待される動作、間違い、および悪意のあるアクティビティを区別するために使用され、また、導入状況やシステムパフォーマンスに関する運用上の洞察にも使用されます。これらの機能は、開発者の生産性とエンタープライズセキュリティのバランスを取ることを目的としています。
(出典:OpenAI)