개요
Neuradex는 AI 에이전트와 LLM에 최적의 컨텍스트를 전달하는 Context as a Service (CaaS) 플랫폼입니다. 기존 AI 애플리케이션은 세션이 종료되면 컨텍스트를 잃고, 과거의 대화나 축적된 지식을 활용할 수 없었습니다. Neuradex는 기억, 지식, 대화 이력 — 모든 정보를 컨텍스트로 통합하여, AI가 필요한 정보에 필요한 순간에 접근할 수 있는 메커니즘을 제공합니다.비전
우리는 사람이 안심하고 의사결정할 수 있는 세계를 만들고 있습니다. Neuradex는 AI에게 조직의 기억을 부여합니다.- 공유되는 지식 - 팀 전원, 여러 AI 에이전트가 같은 기억에 접근
- 축적되는 자산 - 사용할수록 지식이 늘어나 조직의 경쟁력으로
- 당신의 지식 자산 - 자사의 지식 베이스를 「소유」하고, 이를 활용한 AI를 구축
왜 Neuradex인가
컨텍스트의 구축, 관리, 최적화를 모두 서비스로.
- 인프라 구축 불필요 - 벡터 DB, 그래프 DB 등의 구축·운영이 전혀 필요 없음. Neuradex 클라우드에서 바로 시작
- 조직 전체에 공유되는 메모리 - 팀 전체가 액세스할 수 있는 통합 지식 베이스
- 독자적인 지식 인덱싱 - 시맨틱 검색에 최적화된 자동 인덱싱
- 지식의 자동 연결 - 관련 지식을 자동으로 감지하고 연결
- 미완료 질문 추적 - 답변하지 못한 질문을 기록하여 지식 갭을 가시화
- 토큰 예산 관리 - LLM 컨텍스트 윈도우에 최적화된 컨텍스트 조립
- 최신 검색 기술 자동 적용 - 플랫폼 개선이 당신의 애플리케이션에 자동 반영
- 연구개발 비용 불필요 - 정확도 향상을 위한 조사·구현은 Neuradex가 담당
- 미래 기술 혁신도 자동 적용 - 향후 새로운 기술도 추가 작업 없이 이용 가능
당신은 핵심 제품 개발에 집중하고, RAG 정확도 향상은 Neuradex에게 맡기세요. 우리가 연구를 계속하는 한, 당신의 애플리케이션은 함께 진화합니다.
Context Folding
Neuradex는 독자적인 Context Folding 기술을 탑재하고 있습니다. 기존 RAG 시스템에는 근본적인 문제가 있었습니다:- 컨텍스트 윈도우의 한계 - 검색 결과를 전부 LLM에 전달하면 금방 한도에 도달
- Lost in the Middle 문제 - 대량의 정보 속에서 중요한 내용이 노이즈에 묻힘
- 토큰 비용 증가 - 불필요한 정보에도 토큰을 소비
토큰 효율 68% 향상
동일한 품질의 답변을 훨씬 적은 토큰으로 실현
2~3배 정보 처리 능력
동일한 컨텍스트 윈도우에서 기존의 2~3배 문서를 처리
할루시네이션 감소
관련성 높은 정보만으로 답변을 생성하여 정확도 향상
자연스러운 대화 지속
여러 턴의 대화에서도 문맥을 유지하며 일관된 응답 실현
특별한 설정이 전혀 필요 없습니다. Neuradex로 RAG 애플리케이션을 구축하는 것만으로 Context Folding의 혜택을 자동으로 받을 수 있습니다.
getContext()를 호출하기만 하면 최적화된 컨텍스트가 반환됩니다.주요 기능
Chat API
메모리 자동 주입이 포함된 Chat Completions. 지식을 자동으로 LLM에 전달하고 도구도 자동 실행. OpenAI SDK 호환 인터페이스
Knowledge Graph
구조화된 지식을 저장하고 검색. 시맨틱 검색과 자동 관계 그래프로 지식 간의 관계(참조, 확장, 모순, 대체)를 자동 감지
Memory
벡터 검색, 그래프 탐색, 에피소드 검색을 통합하여 토큰 예산 내에서 최적의 컨텍스트를 자동 조립
Agentic Search
지식, 에피소드, 토픽, 엔티티, 관계성을 횡단하는 통합 검색. 단일 쿼리로 모든 데이터 레이어를 탐색
Episodes & Topics
이벤트와 대화 이력을 시간순으로 기록. 관련 에피소드는 자동으로 토픽으로 그룹화 및 요약
Entity Graph
인물, 기업, 제품 등의 고유 명사를 자동 추출. 별칭 해결과 13종류의 관계 타입으로 조직의 지식을 구조화
Chat API
OpenAI SDK 스타일의 인터페이스로, 지식 베이스가 자동으로 컨텍스트에 주입되는 Chat Completions. RAG 파이프라인 구축이 필요 없습니다. 도구 자동 실행도 지원하여execute 함수를 정의하는 것만으로 LLM이 자율적으로 도구를 호출하는 에이전트를 구축할 수 있습니다. 사용 예제는 Chat API 문서를 참조하세요.
Knowledge Graph
구조화된 지식을 시맨틱 검색과 자동 관계 감지로 저장하고 검색할 수 있습니다. 지식 간의 관계(references / extends / contradicts / supersedes / related / derived_from)를 자동으로 감지하여 지식의 진화를 추적합니다. 자세한 내용은 Knowledge API 문서를 참조하세요.Memory
벡터 검색, 그래프 탐색, 에피소드 검색을 조합하여 쿼리에 대해 토큰 예산을 관리하면서 최적의 컨텍스트를 자동으로 조립합니다. 독자 기술에 의한 다단계 스코어링과 최적화로 관련성 높은 정보만을 선택합니다. 자세한 내용은 Memory API 문서를 참조하세요.Episodes & Topics
이벤트와 대화 이력을 시간순으로 기록하고, 변경 추적 및 세션 관리를 수행합니다. 여러 에피소드가 관련된 경우 자동으로 토픽으로 그룹화되어 요약이 생성됩니다. 자세한 내용은 Episodes API 문서를 참조하세요.멀티 프로바이더 LLM
Neuradex는 여러 LLM 프로바이더를 지원하여, 용도에 맞는 최적의 모델을 선택할 수 있습니다.OpenAI
GPT-4o, GPT-4o-mini
Anthropic
Claude 4 Opus, Sonnet
Gemini Pro, Flash
Groq
고속 추론에 특화
Fireworks
최적화된 추론
xAI
Grok
인테그레이션
SDK
TypeScript / JavaScript SDK. npm에서 설치하여 바로 사용 가능
MCP
Model Context Protocol 지원. Claude, VS Code 등의 AI 도구에서 직접 지식을 조작
Slack
Slack 워크스페이스와 연결. 대화에서 자동으로 지식을 추출하고 축적
Widget
웹사이트에 임베드 가능한 채팅 Widget. 몇 줄의 코드로 설치
React
useChat 훅으로 풍부한 채팅 UI를 즉시 구축
REST API
전체 기능을 갖춘 REST API. 모든 플랫폼에서 이용 가능
유스케이스
- RAG 애플리케이션
- AI 에이전트
- 고객 지원 봇
- 사내 지식 베이스
- AI 에이전트 장기 기억
Chat API의
memory 옵션을 활성화하는 것만으로, 지식 베이스를 활용한 RAG가 완성됩니다.컨텍스트 가져오기, 프롬프트 구성, LLM 호출을 SDK가 일괄 처리하므로, 직접 파이프라인을 구축할 필요가 없습니다.다음 단계
빠른 시작
5분 만에 첫 번째 지식 등록하기
Chat API
메모리 기반 Chat Completions
API 레퍼런스
SDK API 상세 문서

