概要
Neuradexは、AIエージェントやLLMに最適なコンテキストを届けるContext as a Service (CaaS) プラットフォームです。 従来のAIアプリケーションは、セッションが終わると文脈を失い、過去の会話や蓄積した知識を活用できませんでした。Neuradexは、記憶・知識・会話履歴——あらゆる情報をコンテキストとして統合し、AIが必要な情報に、必要なときにアクセスできる仕組みを提供します。ビジョン
私たちは、人が安心して意思決定できる世界をつくります。 Neuradexは、AIに組織の記憶を与えます。- 共有される知識 - チーム全員、複数のAIエージェントが同じ記憶にアクセス
- 蓄積される資産 - 使うほど知識が増え、組織の競争力に
- あなたの知識資産 - 自社のナレッジベースを「所有」し、それを活用したAIを構築
なぜNeuradexなのか
コンテキストの構築・管理・最適化を、すべてサービスとして。
- インフラ構築不要 - ベクトルDB、グラフDBなどの構築・運用は一切不要。Neuradexのクラウド上ですぐに利用開始
- 組織全体で共有されるメモリ - チーム全員がアクセスできる統一されたナレッジベース
- 独自の知識インデックシング - セマンティック検索に最適化された自動インデックス
- 知識の自動連結 - 関連するナレッジ同士を自動的に検出・リンク
- 未回答質問の追跡 - 回答できなかった質問を記録し、ナレッジのギャップを可視化
- トークン予算管理 - LLMのコンテキストウィンドウに最適化されたコンテキスト組み立て
- 最新の検索技術を自動適用 - プラットフォームの改善があなたのアプリケーションに自動反映
- 研究開発コスト不要 - 精度向上のための調査・実装はNeuradexが担当
- 将来の技術革新も享受 - 今後の新技術も追加作業なしで利用可能
あなたはコアプロダクトの開発に集中し、RAGの精度向上はNeuradexに任せてください。私たちが研究を続ける限り、あなたのアプリケーションは一緒に進化し続けます。
Context Folding
Neuradexは独自のContext Folding技術を搭載しています。 従来のRAGシステムには根本的な問題がありました:- コンテキストウィンドウの限界 - 検索結果をすべてLLMに渡すとすぐに上限に達する
- Lost in the Middle問題 - 大量の情報の中で、重要な内容がノイズに埋もれる
- トークンコストの増大 - 不要な情報にもトークンを消費してしまう
トークン効率 68%向上
同じ品質の回答を、大幅に少ないトークンで実現
2〜3倍の情報処理能力
同じコンテキストウィンドウで、従来の2〜3倍のドキュメントを処理
ハルシネーション削減
関連性の高い情報のみで回答を生成し、精度を向上
自然な会話継続
複数ターンの対話でも文脈を維持し、一貫した応答を実現
特別な設定は一切不要。 NeuradexでRAGアプリケーションを構築するだけで、Context Foldingの恩恵を自動的に受けられます。
getContext()を呼び出すだけで、最適化されたコンテキストが返されます。主要機能
Chat API
メモリ自動注入付きのChat Completions。ナレッジを自動でLLMに渡し、ツールも自動実行。OpenAI SDK互換のインターフェース
Knowledge Graph
構造化された知識を保存・検索。セマンティック検索と自動関連性グラフで、ナレッジ同士の関係(参照・拡張・矛盾・置換)を自動検出
Memory
ベクトル検索・グラフ探索・エピソード検索を統合し、クエリに対してトークン予算内で最適なコンテキストを自動組み立て
Agentic Search
ナレッジ・エピソード・トピック・エンティティ・関係性を横断する統合検索。単一のクエリで全データレイヤーを探索
Episodes & Topics
イベントや会話履歴を時系列で記録。関連するエピソードは自動的にトピックとしてグループ化・要約
Entity Graph
人物・企業・製品などの固有名詞を自動抽出。エイリアス解決と13種類の関係タイプで、組織の知識を構造化
Chat API
OpenAI SDK風のインターフェースで、ナレッジベースが自動的にコンテキストとして注入されるChat Completions。RAGパイプラインの構築は不要です。ツールの自動実行にも対応し、execute関数を定義するだけでLLMがツールを自律的に呼び出すエージェントを構築できます。使用例はChat APIドキュメントをご覧ください。
Knowledge Graph
構造化された知識を、セマンティック検索と自動関連性検出で保存・検索できます。ナレッジ間の関係(references / extends / contradicts / supersedes / related / derived_from)を自動的に検出し、知識の進化を追跡します。詳細はKnowledge APIドキュメントをご覧ください。Memory
ベクトル検索・グラフ探索・エピソード検索を組み合わせて、クエリに対してトークン予算を管理しながら最適なコンテキストを自動で組み立てます。独自技術による多段階のスコアリングと最適化により、関連性の高い情報のみを選択します。詳細はMemory APIドキュメントをご覧ください。Episodes & Topics
イベントや会話履歴を時系列で記録し、変更追跡やセッション管理を行います。複数のエピソードが関連する場合、自動的にトピックとしてグループ化され、要約が生成されます。詳細はEpisodes APIドキュメントをご覧ください。マルチプロバイダーLLM
Neuradexは複数のLLMプロバイダーに対応しており、用途に応じて最適なモデルを選択できます。OpenAI
GPT-4o, GPT-4o-mini
Anthropic
Claude 4 Opus, Sonnet
Gemini Pro, Flash
Groq
高速推論に特化
Fireworks
最適化された推論
xAI
Grok
インテグレーション
SDK
TypeScript / JavaScript SDK。npmからインストールしてすぐに使える
MCP
Model Context Protocol対応。Claude、VS Code等のAIツールから直接ナレッジを操作
Slack
Slackワークスペースと接続。会話から自動的にナレッジを抽出・蓄積
Widget
Webサイトに埋め込み可能なチャットWidget。数行のコードで設置
React
useChatフックで、リッチなチャットUIを即座に構築
REST API
フル機能のREST API。あらゆるプラットフォームから利用可能
ユースケース
- RAGアプリケーション
- AIエージェント
- カスタマーサポートBot
- 社内ナレッジベース
- AIエージェントの長期記憶
Chat APIの
memoryオプションを有効にするだけで、ナレッジベースを活用したRAGが完成します。コンテキスト取得・プロンプト構築・LLM呼び出しをSDKが一括で処理するため、自前でパイプラインを組む必要がありません。次のステップ
クイックスタート
5分で最初のナレッジを登録する
Chat API
メモリ付きChat Completions
APIリファレンス
SDKの詳細なAPIドキュメント

