VocalStack Logo

Documentation

קח נתוני תעתוק

קח נתונים מכתבים עתידים או כתובים

תיקונים

פיקוח וניהול של מצב העתקה עם מפגשים

תרגום תרגום

תרגום טקסט ממוחשב לשפה אחרת

כתוב שמע מ- URL

תעתיק דיבור מקול מוקלט מראש ב- URL לטקסט רגיל

תוויות אימות בצד הלקוח

יצור תו תקן זיהוי זמני לבקשות צד הלקוח

בקשה לשידור ותגובה

אפשרויות בקשות נפוצות ותגובות לכל פעולות העתקה

תרגום והצגת מפגשים פוליגלוטיםName

יצירת פגישה שניתן להשתמש בה כדי לשדר תרגום חי דרך קישור ציבורי שניתן לשתף

כתוב ממיקרופון או LiveStream

עיין בתעודה
תעתיק דיבור חי ממיקרופון או זרם חי. שילוב עם Polyglot כדי ליצור קישור ציבורי שיתופי עבור התעתיק שאנשים יכולים לקרוא בכל שפה.
כדי לתעתק ממיקרופון אנו חייבים לשלוח באופן מתמיד חבילות של נתוני אודיו ל-VocalStack API.
JavaScript
import { LiveTranscription } from '@vocalstack/js-sdk'; const sdk = new LiveTranscription({ apiKey: 'YOUR-API-KEY' }); const stream = await sdk.connect({ // Optional: Integrate this stream with a Polyglot session polyglot_id: 'YOUR-POLYGLOT-SESSION-ID', // Optional: language of the speech spoken // (this can be used to improve the transcription accuracy) language: 'en', // Optional: Translate the transcription to these languages translations: ['de'], // Optional: Stop the stream after this many seconds of inactivity timeout_period_s: 60, // Optional: Hard stop the stream after this many seconds max_duration_s: 300, }); // Start the stream stream.start(); // Get audio data from a microphone and send it to the stream // stream.sendBuffer(buffer); // *** This is a placeholder for the actual implementation *** // Manually stop the stream (in this example, after 60 seconds) // If max_duration_s is set, stopping the stream is optional setTimeout(() => stream.stop(), 60000); // Listen for stream transcription data stream.onData((response) => { const { status, data } = response; console.log(status); // 'waiting', 'processing', 'done', 'stopping' or 'error' if (data) { console.log(data.timeline); // an object with the transcription timeline } if (status === 'done') { console.log(data.summary); // a summary of the transcription console.log(data.keywords); // an array of keywords console.log(data.paragraphs); // the entire transcription in paragraph form } });
הוצאת נתוני הזרם האודיו יהיה שונה בהתבסס על הסביבה בה אתה רוצה לבצע את פעולה התעתיק. הנה כמה דוגמאות לכך שאתה יכול לעשות את זה:
ב-NextJS אתה צריך להתקין חבילה שיכולה להביא נתוני אודיו מהמכשיר שלך, שאותם תוכל להעביר ל-VocalStack API. הנה דוגמה:
JavaScript
const mic = require('mic'); // Create a new instance of the microphone utility const micInstance = mic(); // Get the audio input stream const micStream = micInstance.getAudioStream(); // Capture the audio data from the microphone micStream.on('data', (data) => { stream.sendBuffer(data); // send the buffer data to the VocalStack API }); // Start capturing audio from the microphone micInstance.start();
בדפדפן האינטרנט, אולי תרצו להשתמש ב-. כלי הקלטת מדיה API כפי שניתן לראות בדוגמה הבאה. (זה יכול להיות גם רעיון טוב להשתמש בחבילה כמו ) recordrtc אשר משפר את התאמה לדפדפן)
JavaScript
// Request access to the microphone const mediaStream = await navigator.mediaDevices.getUserMedia({ audio: true }); // Create a MediaRecorder instance to capture audio data const mediaRecorder = new MediaRecorder(mediaStream); // Event handler to process audio data packets mediaRecorder.ondataavailable = async (event) => { const blob = event.data; // this is the audio packet (Blob) const buffer = await blob.arrayBuffer(); // convert the Blob to a Buffer stream.sendBuffer(buffer); // send the buffer data to the VocalStack API }; // Start capturing audio, and send it to the stream every second mediaRecorder.start(1000);
שימו לב שעבור גישה ל- VocalStack API בלקוחות רשת תצטרך להשתמש בטוקין אימות:
תוויות אימות בצד הלקוח
יצור תו תקן זיהוי זמני לבקשות צד הלקוח. ניתן להשתמש ב-API כדי להגדיר את ה-API של האתר ללא צורך ב-API.
ה-VocalStack API יכול לשמש לניקוד כל כתובת HLS LiveStream, כולל מקורות כמו YouTube Live, Facebook Live ו-Twitch. אנא שימו לב כי כתובת הזרימה חייבת להיות. .m3u8 extension file שמציג קובץ רשימת השמעה HLS (HTTP Live Streaming) תקין.
JavaScript
import { LiveTranscription } from '@vocalstack/js-sdk'; const sdk = new LiveTranscription({ apiKey: 'YOUR-API-KEY' }); const stream = await sdk.connect({ // must be a valid HLS streaming protocol livestream_url: 'http://a.files.bbci.co.uk/media/live/manifesto/audio/simulcast/hls/nonuk/sbr_low/ak/bbc_world_service.m3u8', // The rest of these options are the same as for microphone live transcriptons }); stream.start(); stream.onData((response) => { // The response object is the same as the one // returned by microphone transcriptions });
שילוב תעתוק חי עם Polyglot הוא פשוט כמו הוספת. סוג_ פוליגלוט אפשרות לבקשת התעתיק, כפי שמוצג בדוגמאות הקודמות.
Polyglot יוצר קישור ציבורי שיתופי הקשור לתעתיקיך (הקישור יכול להיות מוגן בסיסמה):
  • משתמשים יכולים לקרוא את התעתיק שלך בזמן אמת באמצעות הקישור.
  • המשתמשים יכולים לבחור את השפה שבה הם רוצים לקרוא את התעתיק בזמן אמת.
  • משתמשים יכולים לקרוא את התעתיק שלך מאוחר יותר, וכל התעתיק האחר משולב עם תהליך ה-Polyglot שלך.
אתה מוזמן להשתמש ב- VocalStack API וליישם את ממשק המשתמש הלובש את התווית הלבנה שלך במקום להשתמש בזה שסופק על ידי VocalStack. אנחנו רוצים לשמוע על זה אם אתה עושה, כדי שנוכל ללמוד איך להפוך את המוצר שלנו לטוב יותר!
למד עוד על איך פוליגלוט עובד ב. vocalstack.com/polyglot.
תרגום והצגת מפגשים פוליגלוטיםName
יצירת פגישה שניתן להשתמש בה כדי לשדר תרגום חי דרך קישור ציבורי שניתן לשתף. המשתמשים יכולים לקרוא תרגומים חיים בשפתם האהובה, ואפילו תרגומים קודמים כאשר הישיבה שלך אינה פעילה.
קח נתוני תעתוק
קח נתונים מכתבים עתידים או כתובים. זה כולל את קו הזמן של העתקה, מילים מפתח, סיכום, ומקטעים של פיסקה.
תוויות אימות בצד הלקוח
יצור תו תקן זיהוי זמני לבקשות צד הלקוח. ניתן להשתמש ב-API כדי להגדיר את ה-API של האתר ללא צורך ב-API.
Scroll Up