Files
backup_openclaw/memory/2026-03-29.md
2026-03-30 19:30:25 +09:00

1.6 KiB

  • STT 벤치 진행: 사용자가 텔레그램으로 보낸 음성 file_7---48f57e90-cf49-404e-8326-1290b55e9aab.ogg를 로컬에서 확인 후 scpllama:~/stt-test/에 전송해 faster-whisper CPU 테스트를 시작함.
  • llama 서버에서 medium + int8 + CPU 1차 결과: 오디오 9.77초, load_sec=30.93, transcribe_sec=2.42, 언어 ko, 텍스트는 "이전에 개발한 브라우저 mcp의 기능은 어떤거고 앞으로의 목표는 어떤건지 간략하게 요약해서 설명만 해봐"로 품질이 꽤 좋다고 판단함.
  • 캐시 후 medium + int8 + CPU 재실행 결과: load_sec 약 1.24~1.35초, transcribe_sec 약 2.45초로 내려감. 사용자는 htop 체감상 RAM이 2GB 이상 크게 올라가지 않는다고 봄.
  • 현재 STT 실행 방식은 상시 서버형이 아니라 "python 실행 → 모델 로드 → 파일 1개 변환 → 프로세스 종료"의 온디맨드 방식이라고 정리함.
  • small, large-v3는 아직 다운로드/테스트 완료 전이며, small 다운로드 시작 시 HF 토큰 없이 받아 경고가 뜸. 사용자가 HF 토큰 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를 다시 제공함.
  • 사용자의 현재 보안 방침: 모든 시스템은 로컬 네트워크에서 동작 중이며 일부 평문 비밀번호/토큰 사용은 임시 허용, 구성 완료 후 암호는 모두 변경 예정. 지금은 구축/기능검증 우선, 보안은 가능한 부분만 최소 대응.
  • 사용자는 현재 RAM/품질 수준이면 medium만으로도 실사용 가능성이 높다고 봄. 다만 최종 비교를 위해 small, large-v3도 빠르게 설치/테스트해보길 원함.