2013-05-23 22 views
14

Chciałbym uzyskać porady dotyczące najlepszego sposobu uzyskania poziomu aktywności mikrofonu obiektu javascript audio w Chrome/Canary. Obiekt MediaStreamTrack jest ścieżką audio z MediaStream zwróconą przez getUserMedia, jako część interfejsu WebRTC javascript API.Poziom aktywności mikrofonu w WebRTC MediaStream

Odpowiedz

7

To, czego szukasz, to webkitAudioContext i jego metoda createMediaStreamSource.

Oto przykładowy kod, który czerpie zielony pasek działa jak miernik VU:

navigator.webkitGetUserMedia({audio:true, video:true}, function(stream){ 
    audioContext = new webkitAudioContext(); 
    analyser = audioContext.createAnalyser(); 
    microphone = audioContext.createMediaStreamSource(stream); 
    javascriptNode = audioContext.createJavaScriptNode(2048, 1, 1); 

    analyser.smoothingTimeConstant = 0.3; 
    analyser.fftSize = 1024; 

    microphone.connect(analyser); 
    analyser.connect(javascriptNode); 
    javascriptNode.connect(audioContext.destination); 

    canvasContext = $("#canvas")[0].getContext("2d"); 

    javascriptNode.onaudioprocess = function() { 
     var array = new Uint8Array(analyser.frequencyBinCount); 
     analyser.getByteFrequencyData(array); 
     var values = 0; 

     var length = array.length; 
     for (var i = 0; i < length; i++) { 
      values += array[i]; 
     } 

     var average = values/length; 
     canvasContext.clearRect(0, 0, 60, 130); 
     canvasContext.fillStyle = '#00ff00'; 
     canvasContext.fillRect(0,130-average,25,130); 
    } 

} 

More details about AudioContext

+0

Zapomniałaś klamrę zamykającą na samym końcu. – igorpavlov

18

Kiedy mikrofon ma dźwięku zielony pasek w górę iw dół bardzo miły:

enter image description here

<script type="text/javascript"> 
navigator.webkitGetUserMedia({audio:true, video:true}, function(stream){ 
    // audioContext = new webkitAudioContext(); deprecated OLD!! 
    audioContext = new AudioContext(); // NEW!! 
    analyser = audioContext.createAnalyser(); 
    microphone = audioContext.createMediaStreamSource(stream); 
    javascriptNode = audioContext.createJavaScriptNode(2048, 1, 1); 

    analyser.smoothingTimeConstant = 0.3; 
    analyser.fftSize = 1024; 

    microphone.connect(analyser); 
    analyser.connect(javascriptNode); 
    javascriptNode.connect(audioContext.destination); 

    //canvasContext = $("#canvas")[0].getContext("2d"); 
    canvasContext = document.getElementById("test"); 
    canvasContext= canvasContext.getContext("2d"); 

    javascriptNode.onaudioprocess = function() { 
     var array = new Uint8Array(analyser.frequencyBinCount); 
     analyser.getByteFrequencyData(array); 
     var values = 0; 

     var length = array.length; 
     for (var i = 0; i < length; i++) { 
      values += array[i]; 
     } 

     var average = values/length; 
     canvasContext.clearRect(0, 0, 60, 130); 
     canvasContext.fillStyle = '#00ff00'; 
     canvasContext.fillRect(0,130-average,25,130); 
    } 

} 
); 
</script> 
<canvas id="test" style="background-color: black;"></canvas> 
+5

audioContext.createJavaScriptNode zostaje zmieniona na audioContext.createScriptProcessor https://developer.mozilla.org/en-US/docs/Web/API/AudioContext.createScriptProcessor –

+0

i teraz trzeba zdefiniować funkcję błędu dla 'webkitGetUserMedia' jako trzecie arg. – CodeBrauer

3

Wprowadziłem kilka poprawek do kodu z pierwszej odpowiedzi. Dodałem także:

window.AudioContext = window.AudioContext || window.webkitAudioContext; 
navigator.getUserMedia = navigator.webkitGetUserMedia || navigator.mozGetUserMedia; 

Więc teraz to działa w Chrome i Firefox 39 34.

Oto skrzypce: http://jsfiddle.net/elshnkhll/p07e5vcq/