Documentation

Hämta transkriptionsdata

Hämta data från väntande eller slutförda transkriptioner

Transkriptionssessioner

Övervaka och hantera transkriptionsstatus med sessioner

Översätt en transkription

Översätt transkriberad text till ett annat språk

Transkribera ljud från URL

Transkribera tal från förinspelade ljud i en URL till klartext

Autentiseringstoken på klientsidan

Skapa en tillfällig autentiseringstoken för begäranden på klientsidan

Begäran om transkription och svar

Vanliga alternativ för begäran och svar för alla transkriptionsåtgärder Använd alternativ för att konfigurera transkriptionsinställningarna

Transkribera och presentera en Polyglot-session

Skapa en session som kan användas för att sända en live-transkription via en offentlig länk som kan delas

Transkribera från en mikrofon eller LiveStream

Bläddra i dokumentationen
Transkribera live-tal från en mikrofon eller live-stream. Integrera med Polyglot för att skapa en offentlig länk för transkriptionen som användare kan läsa på vilket språk som helst.
För att transkribera från en mikrofon måste vi kontinuerligt skicka ljuddataströmpaket till VocalStack API.
JavaScript
import { LiveTranscription } from '@vocalstack/js-sdk'; const sdk = new LiveTranscription({ apiKey: 'YOUR-API-KEY' }); const stream = await sdk.connect({ // Optional: Integrate this stream with a Polyglot session polyglot_id: 'YOUR-POLYGLOT-SESSION-ID', // Optional: language of the speech spoken // (this can be used to improve the transcription accuracy) language: 'en', // Optional: Translate the transcription to these languages translations: ['de'], // Optional: Stop the stream after this many seconds of inactivity timeout_period_s: 60, // Optional: Hard stop the stream after this many seconds max_duration_s: 300, }); // Start the stream stream.start(); // Get audio data from a microphone and send it to the stream // stream.sendBuffer(buffer); // *** This is a placeholder for the actual implementation *** // Manually stop the stream (in this example, after 60 seconds) // If max_duration_s is set, stopping the stream is optional setTimeout(() => stream.stop(), 60000); // Listen for stream transcription data stream.onData((response) => { const { status, data } = response; console.log(status); // 'waiting', 'processing', 'done', 'stopping' or 'error' if (data) { console.log(data.timeline); // an object with the transcription timeline } if (status === 'done') { console.log(data.summary); // a summary of the transcription console.log(data.keywords); // an array of keywords console.log(data.paragraphs); // the entire transcription in paragraph form } });
Hur du får tag på ljudströmsdata kommer att variera beroende på vilken miljö du vill utföra transkriptionsåtgärden i. Här är några exempel på hur du kan göra detta:
I NextJS bör du installera ett paket som kan hämta ljuddata från din enhet, som du sedan kan vidarebefordra till VocalStack API. Här är ett exempel:
JavaScript
const mic = require('mic'); // Create a new instance of the microphone utility const micInstance = mic(); // Get the audio input stream const micStream = micInstance.getAudioStream(); // Capture the audio data from the microphone micStream.on('data', (data) => { stream.sendBuffer(data); // send the buffer data to the VocalStack API }); // Start capturing audio from the microphone micInstance.start();
I webbläsaren kan du använda kommandot. MediaRecorder API som kan ses i följande exempel (Det kan också vara en bra idé att använda ett paket som recordrtc vilket förbättrar webbläsarkompatibilitet)
JavaScript
// Request access to the microphone const mediaStream = await navigator.mediaDevices.getUserMedia({ audio: true }); // Create a MediaRecorder instance to capture audio data const mediaRecorder = new MediaRecorder(mediaStream); // Event handler to process audio data packets mediaRecorder.ondataavailable = async (event) => { const blob = event.data; // this is the audio packet (Blob) const buffer = await blob.arrayBuffer(); // convert the Blob to a Buffer stream.sendBuffer(buffer); // send the buffer data to the VocalStack API }; // Start capturing audio, and send it to the stream every second mediaRecorder.start(1000);
Observera att för att få tillgång till VocalStack API på webbklienter måste du använda en auth token:
Autentiseringstoken på klientsidan
Skapa en tillfällig autentiseringstoken för begäranden på klientsidan. Implementera API-förfrågningar på ett säkert sätt i webbläsare utan att exponera dina API-nycklar.
VocalStack API kan användas för att transkribera alla HLS LiveStream URL, inklusive källor som Youtube Live, Facebook Live och Twitch. Observera att strömmen URL måste vara en. .m3u8 .hls är ett filtillägg som representerar en giltig HLS (HTTP Live Streaming) spellista fil.
JavaScript
import { LiveTranscription } from '@vocalstack/js-sdk'; const sdk = new LiveTranscription({ apiKey: 'YOUR-API-KEY' }); const stream = await sdk.connect({ // must be a valid HLS streaming protocol livestream_url: 'http://a.files.bbci.co.uk/media/live/manifesto/audio/simulcast/hls/nonuk/sbr_low/ak/bbc_world_service.m3u8', // The rest of these options are the same as for microphone live transcriptons }); stream.start(); stream.onData((response) => { // The response object is the same as the one // returned by microphone transcriptions });
Att integrera live-transkriptioner med Polyglot är lika enkelt som att lägga till en. polyglot_id alternativ till transkriptionsbegäran, som visas i exemplen ovan.
Polyglot skapar en offentlig länk som kan delas och som är associerad med dina transkriptioner (länken kan vara lösenordsskyddad):
  • Användare kan läsa din transkription i realtid via länken.
  • Användaren kan välja vilket språk som ska användas för att läsa transkriptionen i realtid.
  • Användare kan läsa din transkription vid ett senare tillfälle, och alla andra transkriptioner integrerade med din speciella Polyglot-session.
Du är välkommen att använda VocalStack API och implementera din egen white labelled UI istället för att använda den som tillhandahålls av VocalStack. Vi skulle gärna vilja höra om det om du gör det, så att vi kan lära oss hur vi kan göra vår produkt bättre!
Läs mer om hur Polyglot fungerar på. vocalstack.com/polyglot.
Transkribera och presentera en Polyglot-session
Skapa en session som kan användas för att sända en live-transkription via en offentlig länk som kan delas. Användare kan läsa transkriptioner i realtid på det språk de föredrar, och även tidigare transkriptioner när din session är inaktiv.
Hämta transkriptionsdata
Hämta data från väntande eller slutförda transkriptioner. Detta inkluderar transkriptionens tidslinje, nyckelord, sammanfattning och styckesegment.
Autentiseringstoken på klientsidan
Skapa en tillfällig autentiseringstoken för begäranden på klientsidan. Implementera API-förfrågningar på ett säkert sätt i webbläsare utan att exponera dina API-nycklar.
Scroll Up