Etiqueta <audio> a audioBuffer: ¿es posible?
Mi javascript-webApp primero lee un archivo mp3 corto y encuentra espacios de silencio en él (para fines de navegación), luego reproduce el mismo archivo mp3 indicándolo para que comience donde termina un silencio u otro. Esto difiere del escenario habitual de webAudio diseñado para otorgar acceso a los datos de audio que se reproducen actualmente en la transmisión (no a toda la pista).
Para que mi aplicación web funcioneTengo que leer / acceder al archivo mp3 dos veces:
víaXMLHttpRequest
para leer un archivo MP3 completo y ponerlo en un búfer de audio que luego pueda decodificar usandoaudioContext.decodeAudioData()
- como se explica aquí:Extrayendo datos de audio cada t segundosespecificando el<audio>
etiqueta para permitirme reproducir el archivo a pedido especificando en milisegundos el punto de inicio / inicio.¿Reproduciendo audio con Javascript?.Q: ¿Hay alguna forma de declarar el<audio>
etiqueta primero y luego de alguna manera deriva el audioBuffer directamente de él, sin recurrir aXMLHttpRequest
?
Heleer acerca decreateMediaElementSource
pero no puedo ver cómo obtener unaudioBuffer
usándolo