본문으로 건너뛰기

Python Agent v2.0.1

2026년 4월 8일

LLM Observability

  • New openai 라이브러리 추적 지원

  • New LLM 전용 Metric, Log 지원

  • New LLM 비용(Pricing) 산정 — genai-prices 연동을 통한 모델별 입출력 토큰 단가 계산 지원(실패 시 내장 fallback)

  • New vLLM 호환 — openai SDK 호환 vLLM 서버에 대한 Chat Completions / Completions API 후킹 및 delta.text fallback 지원

  • New whatap-llm-setting-config LM 모드 설정 파일을 자동 생성/갱신하는 명령어 추가

  • New LLM 추적 옵션 추가

    • llm_api_hosts String

      해당 옵션으로 등록된 HTTPC의 호스트는 LLM API 경로로 인식하고, 호스트가 여러 개인 경우 ,로 구분함

      • 기본값 없음

      • 예시: localhost:8000,api.openai.com:443

    • llm_model_pricing String

      LLM 모델의 1M 토큰당 가격을 수동으로 입력, 해당 옵션으로 등록된 가격이 1순위로 계산되어 데이터가 저장됨

      • 형식: [모델 이름]|[입력 토큰]|[출력 토큰]|[캐시 토큰]

      • 예시: gpt-4o|2.50|10.00|1.25,gpt-4o-mini|0.15|0.60|0.075,my-custom-model|1.00|5.00

공통

  • NewFastAPI SSE 응답 스트리밍 추적 지원

  • New LLM & APM 듀얼 에이전트 모드 개발

    • apm_enabled Boolean

      • APM 모드로 에이전트를 가동함

      • license, whatap.server.host

      주의

      해당 라이센스와 서버 주소는 반드시 APM 프로젝트의 키로 입력해야 함

    • llm_enabled Boolean

      • LLM 모드로 에이전트를 가동함

      • llm_license, llm.whatap.server.host

      주의

      해당 라이센스와 서버 주소는 반드시 LLM 프로젝트의 키로 입력해야 함

노트

Agent download: whatap-python v2.0.1