メインコンテンツへスキップ

概要

Neuradexは、AIエージェントやLLMに最適なコンテキストを届けるContext as a Service (CaaS) プラットフォームです。 従来のAIアプリケーションは、セッションが終わると文脈を失い、過去の会話や蓄積した知識を活用できませんでした。Neuradexは、記憶・知識・会話履歴——あらゆる情報をコンテキストとして統合し、AIが必要な情報に、必要なときにアクセスできる仕組みを提供します。

ビジョン

「信頼できるか?」を気にしなくていい世界へ
私たちは、人が安心して意思決定できる世界をつくります。 Neuradexは、AIに組織の記憶を与えます。
  • 共有される知識 - チーム全員、複数のAIエージェントが同じ記憶にアクセス
  • 蓄積される資産 - 使うほど知識が増え、組織の競争力に
  • あなたの知識資産 - 自社のナレッジベースを「所有」し、それを活用したAIを構築

なぜNeuradexなのか

コンテキストの構築・管理・最適化を、すべてサービスとして。
このビジョンを実現するには、AIに適切なコンテキストを届けるインフラが必要です。しかしRAGシステムを自前で構築するには、ベクトルDB、インデックス管理、関連性スコアリング、コンテキスト最適化など、多くの複雑な要素を実装する必要があります。 NeuradexはCaaSとして、これらの複雑な機能をすぐに使える形で提供します:
  • インフラ構築不要 - ベクトルDB、グラフDBなどの構築・運用は一切不要。Neuradexのクラウド上ですぐに利用開始
  • 組織全体で共有されるメモリ - チーム全員がアクセスできる統一されたナレッジベース
  • 独自の知識インデックシング - セマンティック検索に最適化された自動インデックス
  • 知識の自動連結 - 関連するナレッジ同士を自動的に検出・リンク
  • 未回答質問の追跡 - 回答できなかった質問を記録し、ナレッジのギャップを可視化
  • トークン予算管理 - LLMのコンテキストウィンドウに最適化されたコンテキスト組み立て
SDKを通じて、わずか数行のコードでこれらすべての機能をあなたのアプリケーションに統合できます。
一度構築すれば、改善の恩恵を受け続ける
自前でRAGを構築した場合、精度向上のためには継続的な研究・実装が必要です。ベクトル検索のチューニング、リランキングの改善、新しい検索手法の導入——すべてあなた自身で行う必要があります。これは本業であるプロダクト開発から貴重なリソースを奪います。 Neuradex上でRAGを構築すると:
  • 最新の検索技術を自動適用 - プラットフォームの改善があなたのアプリケーションに自動反映
  • 研究開発コスト不要 - 精度向上のための調査・実装はNeuradexが担当
  • 将来の技術革新も享受 - 今後の新技術も追加作業なしで利用可能
あなたはコアプロダクトの開発に集中し、RAGの精度向上はNeuradexに任せてください。私たちが研究を続ける限り、あなたのアプリケーションは一緒に進化し続けます。

Context Folding

Neuradexは独自のContext Folding技術を搭載しています。 従来のRAGシステムには根本的な問題がありました:
  • コンテキストウィンドウの限界 - 検索結果をすべてLLMに渡すとすぐに上限に達する
  • Lost in the Middle問題 - 大量の情報の中で、重要な内容がノイズに埋もれる
  • トークンコストの増大 - 不要な情報にもトークンを消費してしまう
Context Foldingはこれらの問題を根本から解決します。詳細なアルゴリズムは非公開ですが、結果がすべてを物語ります

トークン効率 68%向上

同じ品質の回答を、大幅に少ないトークンで実現

2〜3倍の情報処理能力

同じコンテキストウィンドウで、従来の2〜3倍のドキュメントを処理

ハルシネーション削減

関連性の高い情報のみで回答を生成し、精度を向上

自然な会話継続

複数ターンの対話でも文脈を維持し、一貫した応答を実現
特別な設定は一切不要。 NeuradexでRAGアプリケーションを構築するだけで、Context Foldingの恩恵を自動的に受けられます。getContext()を呼び出すだけで、最適化されたコンテキストが返されます。

主要機能

Chat API

メモリ自動注入付きのChat Completions。ナレッジを自動でLLMに渡し、ツールも自動実行。OpenAI SDK互換のインターフェース

Knowledge Graph

構造化された知識を保存・検索。セマンティック検索と自動関連性グラフで、ナレッジ同士の関係(参照・拡張・矛盾・置換)を自動検出

Memory

ベクトル検索・グラフ探索・エピソード検索を統合し、クエリに対してトークン予算内で最適なコンテキストを自動組み立て

Agentic Search

ナレッジ・エピソード・トピック・エンティティ・関係性を横断する統合検索。単一のクエリで全データレイヤーを探索

Episodes & Topics

イベントや会話履歴を時系列で記録。関連するエピソードは自動的にトピックとしてグループ化・要約

Entity Graph

人物・企業・製品などの固有名詞を自動抽出。エイリアス解決と13種類の関係タイプで、組織の知識を構造化

Chat API

OpenAI SDK風のインターフェースで、ナレッジベースが自動的にコンテキストとして注入されるChat Completions。RAGパイプラインの構築は不要です。ツールの自動実行にも対応し、execute関数を定義するだけでLLMがツールを自律的に呼び出すエージェントを構築できます。使用例はChat APIドキュメントをご覧ください。

Knowledge Graph

構造化された知識を、セマンティック検索と自動関連性検出で保存・検索できます。ナレッジ間の関係(references / extends / contradicts / supersedes / related / derived_from)を自動的に検出し、知識の進化を追跡します。詳細はKnowledge APIドキュメントをご覧ください。

Memory

ベクトル検索・グラフ探索・エピソード検索を組み合わせて、クエリに対してトークン予算を管理しながら最適なコンテキストを自動で組み立てます。独自技術による多段階のスコアリングと最適化により、関連性の高い情報のみを選択します。詳細はMemory APIドキュメントをご覧ください。

Episodes & Topics

イベントや会話履歴を時系列で記録し、変更追跡やセッション管理を行います。複数のエピソードが関連する場合、自動的にトピックとしてグループ化され、要約が生成されます。詳細はEpisodes APIドキュメントをご覧ください。

マルチプロバイダーLLM

Neuradexは複数のLLMプロバイダーに対応しており、用途に応じて最適なモデルを選択できます。

OpenAI

GPT-4o, GPT-4o-mini

Anthropic

Claude 4 Opus, Sonnet

Google

Gemini Pro, Flash

Groq

高速推論に特化

Fireworks

最適化された推論

xAI

Grok
プロジェクトごとに使用するモデルを設定でき、チャット・エンべディング・ナレッジ抽出など、アクションの種類に応じて異なるモデルを使い分けることが可能です。

インテグレーション

SDK

TypeScript / JavaScript SDK。npmからインストールしてすぐに使える

MCP

Model Context Protocol対応。Claude、VS Code等のAIツールから直接ナレッジを操作

Slack

Slackワークスペースと接続。会話から自動的にナレッジを抽出・蓄積

Widget

Webサイトに埋め込み可能なチャットWidget。数行のコードで設置

React

useChatフックで、リッチなチャットUIを即座に構築

REST API

フル機能のREST API。あらゆるプラットフォームから利用可能

ユースケース

Chat APIのmemoryオプションを有効にするだけで、ナレッジベースを活用したRAGが完成します。コンテキスト取得・プロンプト構築・LLM呼び出しをSDKが一括で処理するため、自前でパイプラインを組む必要がありません。

次のステップ

クイックスタート

5分で最初のナレッジを登録する

Chat API

メモリ付きChat Completions

APIリファレンス

SDKの詳細なAPIドキュメント