1.6 KiB
1.6 KiB
- STT 벤치 진행: 사용자가 텔레그램으로 보낸 음성
file_7---48f57e90-cf49-404e-8326-1290b55e9aab.ogg를 로컬에서 확인 후scp로llama:~/stt-test/에 전송해faster-whisperCPU 테스트를 시작함. llama서버에서medium + int8 + CPU1차 결과: 오디오 9.77초,load_sec=30.93,transcribe_sec=2.42, 언어ko, 텍스트는 "이전에 개발한 브라우저 mcp의 기능은 어떤거고 앞으로의 목표는 어떤건지 간략하게 요약해서 설명만 해봐"로 품질이 꽤 좋다고 판단함.- 캐시 후
medium + int8 + CPU재실행 결과:load_sec약 1.24~1.35초,transcribe_sec약 2.45초로 내려감. 사용자는htop체감상 RAM이 2GB 이상 크게 올라가지 않는다고 봄. - 현재 STT 실행 방식은 상시 서버형이 아니라 "python 실행 → 모델 로드 → 파일 1개 변환 → 프로세스 종료"의 온디맨드 방식이라고 정리함.
small,large-v3는 아직 다운로드/테스트 완료 전이며,small다운로드 시작 시 HF 토큰 없이 받아 경고가 뜸. 사용자가 HF 토큰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를 다시 제공함.- 사용자의 현재 보안 방침: 모든 시스템은 로컬 네트워크에서 동작 중이며 일부 평문 비밀번호/토큰 사용은 임시 허용, 구성 완료 후 암호는 모두 변경 예정. 지금은 구축/기능검증 우선, 보안은 가능한 부분만 최소 대응.
- 사용자는 현재 RAM/품질 수준이면
medium만으로도 실사용 가능성이 높다고 봄. 다만 최종 비교를 위해small,large-v3도 빠르게 설치/테스트해보길 원함.