본 문서는 2025년 7월 30일 기준으로 작성되었습니다.
Elastic 환경에서 AI Assistant, Attack Discovery 등의 AI 기능을 사용하기 위해 OpenAI와 연동하는 절차를 설명합니다.
Elastic은 9.0.4 버전을 사용하였습니다.
사용자가 Kibana AI Assistant 대화창에 프롬프트를 입력합니다.
Kibana 서버는 등록된 OpenAI 커넥터를 통해 HTTPS POST 방식으로 api.openai.com/v1/chat/completions 엔드포인트에 요청을 전송합니다. 이때 Authorization 헤더에 Bearer 형식의 API 키가 포함됩니다.
OpenAI는 선택한 모델(GPT-4o 등)로 추론을 수행한 뒤 ChatCompletion 형식의 JSON 응답을 반환합니다.
Kibana는 응답을 UI에 표시하고, 대화 내용과 메타데이터를 내부 시스템 인덱스에 저장합니다. 필요하면 Action을 이용해 사용자 지정 인덱스로도 저장할 수 있습니다.
OpenAI의 API keys 메뉴에서 Create new secret key를 선택합니다.
API key를 저장합니다. 완료 이후에는 다시 확인할 수 없으므로 별도로 기록해야 합니다.
Key가 노출되지 않도록 주의해야 합니다.
Elastic에서 Connector를 설정합니다.
Management -> Alerts and Insights -> Connectors -> Create Connector -> OpenAI를 선택합니다.
Select an OpenAI provider에는 OpenAI를 선택합니다.
URL에는 https://api.openai.com/v1/chat/completions를 입력합니다.
Default model에는 호출할 모델의 이름을 입력합니다. (gpt-4o 등)
API key는 위에서 발급한 key 값을 입력합니다.
설정한 Connector가 작동하는지 확인하기 위해 AI Assistant에서 Connector를 선택합니다.
OpenAI Connector가 작동하는 것을 확인할 수 있습니다.
Elastic에서는 LLM 성능 지표를 공개하고 있습니다.
Public LLM은 Elastic AI 기능을 사용하는 데 충분한 성능을 보입니다.
한국어도 충분히 지원하지만, 학습 데이터 분포와 토큰화 특성 차이로 인해 일부 작업에서는 영어보다 성능이 다소 낮을 수 있습니다.