본 문서는 2025년 7월 29일 기준으로 작성되었습니다.
Elastic 환경에서 AI Assistant, Attack Discovery 등의 AI 기능을 사용하기 위해 LM Studio로 Private LLM을 구축하고 연동하는 절차를 설명합니다.
Elastic은 8.18.0 버전, LM Studio는 0.3.18 버전을 사용하였습니다.
AI Assistant에 프롬프트를 입력합니다.
Kibana가 LM Studio OpenAI 호환 서버로 HTTP 요청을 전송합니다.
LM Studio가 로컬에 로드된 모델로 추론을 수행하고 JSON 형식의 응답을 반환합니다.
Kibana는 응답을 UI에 표시하며, 필요 시 Elasticsearch 인덱스에 저장합니다.
LM Studio의 Settings에서 OpenAI Compatible Server를 설정합니다.
Server Port를 확인합니다. (기본: 1234)
Serve on Local Network 활성화 합니다. (기본: 비활성화)
모델을 다운로드 합니다.
Postman 등으로 API가 작동하는지 확인합니다.
Elastic에서 Connector를 설정합니다.
Management -> Alerts and Insights -> Connectors -> Create Connector -> OpenAI를 선택합니다.
Select an OpenAI provider에는 Other (OpenAI Compatible Service)를 선택합니다.
URL에는 LM Studio 서버의 API 주소를 입력합니다.
Default model에는 호출할 모델의 이름을 입력합니다. (google/gemma-3-1b, mistralai/mistral-small-3.2 등)
API key는 설정되어 있지 않으므로 임의의 값을 입력합니다.
설정한 Connector가 작동하는지 확인하기 위해 AI Assistant에서 Connector를 선택합니다.
gemma-3-1b가 작동하는 것을 확인할 수 있습니다.
Elastic에서는 LLM 성능 지표를 공개하고 있습니다.
Public LLM에 비해 전반적인 성능이 부족한 것으로 확인되나 AI Assistant 용도로는 Mistral 계열도 준수한 것으로 평가됩니다.
Attack Discovery나 ES|QL 생성 용도로 사용하기 위해서는 상당한 튜닝이 필요할 것으로 보입니다.