データ プライバシーとリスクを重視した AI 開発を加速し、モデル サーバーの構築から LLM 出力まで、システム レベルのガバナンスとセキュリティを実現します。
クラウド API、self-hosted モデル、MCP サーバーなどの AI リソースを統一されたインターフェイスで利用できます。分散した AI 利用を一元化し、企業の AI システムを自社管理で運用できます。
複数の AI モデルを単一の API で利用し、会話履歴や入力内容に基づいた応答を生成できます。クラウド および self-hosted モデルを同一のインターフェイスで扱えます。
リアルタイムのストリーミング出力に対応し、インタラクティブな AI アプリケーションを構築できます。異なるモデルやエンドポイントも同一の実装で利用できます。
画像とテキストを組み合わせた入力に対応し、ビジョン対応モデルを利用できます。マルチモーダル AI を既存のワークフローに組み込めます。
入力テキストに対して、プロンプト インジェクションによる潜在的な攻撃を検出し、インデックスの位置、攻撃の確率、検出結果のステータスを示すベクトル化されたデータを生成します。
氏名やメールアドレスなどの個人情報を検出し、ランダムな英数字、仮の情報、特定のカテゴリへの置き換えや、マスキングを適用することができます。
参照テキストと出力テキストを比較し、インデックスの位置および出力の事実性を示すスコアを生成します。
出力テキストの有害性について、インデックスの位置および有害性を示すスコアを生成します。
テキストや LLM 入出力データをベクトル化し、検索や類似度比較に利用できます。統一された API で複数モデルのベクトル化処理を実行できます。
検索結果や LLM の生成候補を再評価し、関連性の高い順に並べ替えます。RAG 構成における検索精度や回答品質の向上に利用できます。
モデルのトークナイザーを使用して、文字列に対して LLM が効率よくデータを処理するためのトークンを生成します。
入出力テキストに対する言語設定をもとに、入力テキストを指定の言語に自動翻訳したテキストを出力します。Prediction Guard がサポートするそれぞれのオープンソース LLM モデルごとに出力結果が生成され、その中で最も適した翻訳テキストとそれに対するスコアおよび使用されたモデルの種類が示されます。