Python Agent v2.0.1
2026년 4월 8일
LLM Observability
-
Newopenai라이브러리 추적 지원 -
NewLLM 전용 Metric, Log 지원 -
NewLLM 비용(Pricing) 산정 —genai-prices연동을 통한 모델별 입출력 토큰 단가 계산 지원(실패 시 내장 fallback) -
NewvLLM호환 —openaiSDK 호환 vLLM 서버에 대한 Chat Completions / Completions API 후킹 및 delta.text fallback 지원 -
Newwhatap-llm-setting-configLM 모드 설정 파일을 자동 생성/갱신하는 명령어 추가 -
NewLLM 추적 옵션 추가-
llm_api_hosts String
해당 옵션으로 등록된 HTTPC의 호스트는 LLM API 경로로 인식하고, 호스트가 여러 개인 경우
,로 구분함-
기본값 없음
-
예시:
localhost:8000,api.openai.com:443
-
-
llm_model_pricing String
LLM 모델의 1M 토큰당 가격을 수동으로 입력, 해당 옵션으로 등록된 가격이 1순위로 계산되어 데이터가 저장됨
-
형식:
[모델 이름]|[입력 토큰]|[출력 토큰]|[캐시 토큰] -
예시:
gpt-4o|2.50|10.00|1.25,gpt-4o-mini|0.15|0.60|0.075,my-custom-model|1.00|5.00
-
-
공통
-
NewFastAPISSE 응답 스트리밍 추적 지원 -
NewLLM & APM 듀얼 에이전트 모드 개발-
apm_enabled Boolean
-
APM 모드로 에이전트를 가동함
-
license,whatap.server.host
주의해당 라이센스와 서버 주소는 반드시 APM 프로젝트의 키로 입력해야 함
-
-
llm_enabled Boolean
-
LLM 모드로 에이전트를 가동함
-
llm_license,llm.whatap.server.host
주의해당 라이센스와 서버 주소는 반드시 LLM 프로젝트의 키로 입력해야 함
-
-
Agent download: whatap-python v2.0.1