망분리 환경의 중소기업을 위한 완결형 AI 지식 솔루션. 국산 오픈 LLM 기반, 외부 클라우드 연결 없이 사내 내부망에서 30분 내 설치됩니다.
파일럿 파트너 인터뷰에서 반복 확인된 문제들. 각각은 독립된 이슈가 아니라 하나의 구조적 공백을 가리킵니다.
핵심 기술·설계 자료는 외부 클라우드에 올릴 수 없는 구조. 가장 AI가 필요한 제조·방산·정밀 부품 기업이 오히려 혁신에서 배제됩니다.
Linux·Docker·GPU 드라이버를 다룰 인력이 없고, 외주 설치는 수천만원. 하드웨어보다 운영 역량 확보가 더 큰 허들입니다.
30년 차 엔지니어의 은퇴가 곧 지식 공백. 한 명이 부서 전체의 지식을 쥔 구조에서, 한 번의 퇴직이 경쟁력 소실로 이어집니다.
10년 차 직원도 과거 프로젝트 자료를 찾는 데 수십 분. NAS·이메일·PC에 흩어진 자료, HWP를 제대로 다루지 못하는 검색 도구.
과거 유사 프로젝트 자료가 가장 강력한 근거지만, 외부 AI는 기밀 유출 우려로 쓸 수 없어 결국 수작업에 의존하게 됩니다.
다음 섹션에서 실제 화면을 보여드립니다.↗
브라우저 로그인 후 질문을 입력하면 내부망 안에서만 검색·응답이 완결됩니다. 모든 답변에는 근거 문서가 붙고, 근거가 없으면 AI는 추측 대신 「자료 없음」을 반환합니다.
일반 RAG가 문서 검색 도구라면, WizePlug는 지식 생산 시스템입니다. AI가 답할 수 없는 질문을 사내 전문가의 답변으로 편입시켜, 반복되는 질문이 다음 질문의 근거가 되도록 설계했습니다.
근거 문서에 없는 질문이 들어오면, 추측 대신 「자료 없음」을 반환하고 등록 후보에 담아둡니다. 사용자는 한 번의 클릭으로 사내에 질문을 등록할 수 있습니다.
질문이 해당 도메인 부서 담당자에게 자동 할당됩니다. 답변 작성 시 과거 문서·유사 Q&A가 AI에 의해 제시되며, 검증자가 지정되어 조회수와 검증 이력이 함께 기록됩니다.
검증을 통과한 Q&A는 문서와 동일한 인덱스에 합류합니다. 다음부터는 같은 질문에 AI가 출처로 인용하고, 팀 전체가 열람할 수 있습니다.
임직원 접근 권한과 담당자 지정, 검증 대기 Q&A를 한 화면에서. 질의·응답·접근·인덱싱 전 구간이 감사 로그로 기록되어 망분리 규제 요건을 충족합니다.
체험 · 부서 검증 · 전사 운영의 세 단계가 동일 인덱싱 파이프라인 위에 놓입니다. 범위 파라미터 하나만 바뀔 뿐, 이전 단계의 Q&A와 설정이 그대로 연속됩니다.
관리자 개인 PC에서 USB 설치. 자료 몇 건으로 체험하고 도입 여부를 결정합니다.
한 부서를 대상으로 운영. 기존 문서 저장소 특정 폴더와 연동, 업무 적합성을 검증합니다.
전용 Linux 서버로 무중단 전환. 전사 폴더 권한 상속, 공식 지식 자산으로 운영합니다.
해외 상용 AI는 망분리 환경 사용 불가. 국내 대기업형 SI는 수억원대 비용. 오픈소스는 설치·운영의 기술 장벽. WizePlug는 이 세 축을 모두 회피합니다.
| 기준 | ChatGPT Enterprise · Claude for Work · Copilot | LG CNS · 삼성 SDS 엔터프라이즈 SI | Open WebUI · AnythingLLM · Dify | WizePlug |
|---|---|---|---|---|
| 망분리 환경 사용 | 불가 | 가능 | 가능 | 완결 설계 |
| 도입 비용 | 월간 구독 · 외부 API 비용 | 수억원대 구축 비용 | 인프라·인력 비용 | USB 기반 저비용 진입 |
| 설치·운영 | 낮음 (클라우드) | 전담 인력 필요 | Linux·Docker·GPU 지식 필수 | USB 삽입 · 30분 내 작동 |
| 권한·감사 | 외부 종속 | 고도화 가능 | 설계·구현 부담 | 기존 폴더 권한 상속 |
| 사내 노하우 축적 | 단방향 Q&A | 커스텀 개발 필요 | 기능 부족 | 내장 축적 사이클 |
| 한국어 문서 | HWP 미지원 | 구축 시 대응 | 제한적 | HWP · DOCX · PDF · XLSX 기본 |
| 확장성 | 계정 추가 | 전사 설계 재진행 | 아키텍처 재설계 | 동일 엔진 · 범위 파라미터 |
파인튜닝 없이 검색 증강(RAG) 방식만 사용. 고객사 문서는 학습 데이터가 되지 않으며, 원본은 외부로 이동하지 않습니다. 질의 유형과 환경에 따라 세 모델이 자동 라우팅됩니다.
복잡한 제안서 작성, 긴 문서 요약, 도메인 지식 응답에서 우수. 기본 설치 환경의 디폴트 모델.
저사양 GPU에서 구동 가능. 짧은 질의·검색형 질문에 라우팅되어 중소기업 기본 하드웨어에 대응.
제안서 작성 등 긴 추론이 필요한 태스크에 라우팅. 국산 LLM 중 문서 이해 벤치마크 상위권.