VocalStack Logo

Documentation

번역 데이터 가져오기

보류 중인 혹은 완료된 녹음에서 데이터를 가져옵니다

번역 세션

세션을 통해 전사 상태를 모니터링하고 관리합니다

번역 번역

다른 언어로 번역된 텍스트를 번역합니다

URL에서 오디오를 번역

URL에 있는 미리 녹음된 오디오에서 음성을 일반 텍스트로 전사합니다

클라이언트 측 인증 토큰

클라이언트 측 요청을 위한 임시 인증 토큰을 만듭니다

녹음 요청 및 응답

모든 번역 작업에 대한 일반적인 요청 옵션과 응답

다국어 세션을 녹음하고 발표

공개 공유 링크를 통해 실시간 녹음을 방송하는 데 사용할 수 있는 세션을 만듭니다

마이크 또는 LiveStream에서 녹음

문서 찾아보기
마이크 또는 라이브 스트림에서 실시간 연설을 녹음합니다. Polyglot와 통합하여 사용자가 어떤 언어로든 읽을 수 있는 공개 공유 링크를 만들 수 있습니다.
마이크에서 녹음하려면 오디오 데이터 스트림 패킷을 지속적으로 VocalStack API에 보내야 합니다.
JavaScript
import { LiveTranscription } from '@vocalstack/js-sdk'; const sdk = new LiveTranscription({ apiKey: 'YOUR-API-KEY' }); const stream = await sdk.connect({ // Optional: Integrate this stream with a Polyglot session polyglot_id: 'YOUR-POLYGLOT-SESSION-ID', // Optional: language of the speech spoken // (this can be used to improve the transcription accuracy) language: 'en', // Optional: Translate the transcription to these languages translations: ['de'], // Optional: Stop the stream after this many seconds of inactivity timeout_period_s: 60, // Optional: Hard stop the stream after this many seconds max_duration_s: 300, }); // Start the stream stream.start(); // Get audio data from a microphone and send it to the stream // stream.sendBuffer(buffer); // *** This is a placeholder for the actual implementation *** // Manually stop the stream (in this example, after 60 seconds) // If max_duration_s is set, stopping the stream is optional setTimeout(() => stream.stop(), 60000); // Listen for stream transcription data stream.onData((response) => { const { status, data } = response; console.log(status); // 'waiting', 'processing', 'done', 'stopping' or 'error' if (data) { console.log(data.timeline); // an object with the transcription timeline } if (status === 'done') { console.log(data.summary); // a summary of the transcription console.log(data.keywords); // an array of keywords console.log(data.paragraphs); // the entire transcription in paragraph form } });
오디오 스트림 데이터를 얻는 방법은 녹음 작업을 실행할 환경에 따라 다릅니다. 여기에 이것을 수행하는 방법에 대한 몇 가지 예가 있습니다.:
NextJS에서는 디바이스에서 오디오 데이터를 가져올 수 있는 패키지를 설치해야 하며, 이를 VocalStack API로 전달할 수 있습니다. 예를 들어, 다음과 같습니다.:
JavaScript
const mic = require('mic'); // Create a new instance of the microphone utility const micInstance = mic(); // Get the audio input stream const micStream = micInstance.getAudioStream(); // Capture the audio data from the microphone micStream.on('data', (data) => { stream.sendBuffer(data); // send the buffer data to the VocalStack API }); // Start capturing audio from the microphone micInstance.start();
웹 브라우저에서 사용할 수 있습니다. 미디어 레코더 다음 예시에서 볼 수 있는 API. (또한 와 같은 패키지를 사용하는 것이 좋을 수도 있습니다.) recordrtc 브라우저 호환성을 향상시키는 브라우저 호환성 향상.
JavaScript
// Request access to the microphone const mediaStream = await navigator.mediaDevices.getUserMedia({ audio: true }); // Create a MediaRecorder instance to capture audio data const mediaRecorder = new MediaRecorder(mediaStream); // Event handler to process audio data packets mediaRecorder.ondataavailable = async (event) => { const blob = event.data; // this is the audio packet (Blob) const buffer = await blob.arrayBuffer(); // convert the Blob to a Buffer stream.sendBuffer(buffer); // send the buffer data to the VocalStack API }; // Start capturing audio, and send it to the stream every second mediaRecorder.start(1000);
웹 클라이언트에서 VocalStack API에 액세스하려면 인증 토큰을 사용해야 합니다.:
클라이언트 측 인증 토큰
클라이언트 측 요청을 위한 임시 인증 토큰을 만듭니다. API 키를 노출하지 않고도 웹 브라우저에서 API 요청을 안전하게 구현할 수 있습니다.
VocalStack API는 Youtube Live, Facebook Live, Twitch와 같은 소스를 포함한 모든 HLS LiveStream URL을 번역하는 데 사용할 수 있습니다. 스트림 URL이 해야 합니다 에 유의하십시오. . m3u8 파일 유효한 HLS (HTTP 라이브 스트리밍) 재생 목록 파일을 나타내는 파일 확장자.
JavaScript
import { LiveTranscription } from '@vocalstack/js-sdk'; const sdk = new LiveTranscription({ apiKey: 'YOUR-API-KEY' }); const stream = await sdk.connect({ // must be a valid HLS streaming protocol livestream_url: 'http://a.files.bbci.co.uk/media/live/manifesto/audio/simulcast/hls/nonuk/sbr_low/ak/bbc_world_service.m3u8', // The rest of these options are the same as for microphone live transcriptons }); stream.start(); stream.onData((response) => { // The response object is the same as the one // returned by microphone transcriptions });
Polyglot와 함께 라이브 녹음을 통합하는 것은 을 추가하는 것만큼 간단합니다. 다국어 식별자(_I) 옵션은 위의 예에서 보여주듯이, 번역 요청에 표시됩니다.
Polyglot는 귀하의 녹음과 관련된 공개 공유 링크를 생성합니다 (링크는 암호로 보호 될 수 있습니다):
  • 사용자는 링크를 사용하여 실시간으로 녹음을 읽을 수 있습니다.
  • 사용자는 실시간으로 녹음을 읽을 언어를 선택할 수 있습니다.
  • 사용자는 나중에 귀하의 녹음을 읽을 수 있으며, 다른 모든 녹음은 특정 Polyglot 세션과 통합됩니다.
VocalStack API를 사용하여 VocalStack이 제공하는 UI 대신 자신만의 화이트 라벨 UI를 구현할 수 있습니다. 네가 하면 듣고 싶어, 우리가 제품을 더 좋게 만드는 방법을 배울 수 있도록!
Polyglot가 어떻게 작동하는지에 대해 자세히 알아보기. vocalstack.com/polyglot 에 접속하십시오..
다국어 세션을 녹음하고 발표
공개 공유 링크를 통해 실시간 녹음을 방송하는 데 사용할 수 있는 세션을 만듭니다. 사용자는 원하는 언어로 실시간 녹음을 읽을 수 있으며, 비활성 세션에서도 과거 녹음을 읽을 수 있습니다.
번역 데이터 가져오기
보류 중인 혹은 완료된 녹음에서 데이터를 가져옵니다. 이것은 녹음 타임라인, 키워드, 요약 및 단락 세그먼트를 포함합니다.
클라이언트 측 인증 토큰
클라이언트 측 요청을 위한 임시 인증 토큰을 만듭니다. API 키를 노출하지 않고도 웹 브라우저에서 API 요청을 안전하게 구현할 수 있습니다.
Scroll Up