Vue реализует функцию записи и воспроизводит файл amr (на стороне ПК)

Vue.js
Vue реализует функцию записи и воспроизводит файл amr (на стороне ПК)

Функция записи, как правило, более распространена на мобильном терминале, но как насчет функции нажатия и разговора на стороне ПК? Требования к проекту: Нажмите и удерживайте, чтобы говорить, продолжительность не более 60 секунд, сгенерируйте голосовой файл и загрузите его, здесь я использую recorder.js

1. Создайте в проекте новый файл recorder.js со следующим содержанием, вы также можете найти его прямо на Baidu.

// 兼容
window.URL = window.URL || window.webkitURL
navigator.getUserMedia = navigator.getUserMedia || navigator.webkitGetUserMedia || navigator.mozGetUserMedia || navigator.msGetUserMedia

let HZRecorder = function (stream, config) {
  config = config || {}
  config.sampleBits = config.sampleBits || 8 // 采样数位 8, 16
  config.sampleRate = config.sampleRate || (44100 / 6) // 采样率(1/6 44100)
  let context = new (window.webkitAudioContext || window.AudioContext)()
  let audioInput = context.createMediaStreamSource(stream)
  let createScript = context.createScriptProcessor || context.createJavaScriptNode
  let recorder = createScript.apply(context, [4096, 1, 1])
  let audioData = {
    size: 0, // 录音文件长度
    buffer: [], // 录音缓存
    inputSampleRate: context.sampleRate, // 输入采样率
    inputSampleBits: 16, // 输入采样数位 8, 16
    outputSampleRate: config.sampleRate, // 输出采样率
    oututSampleBits: config.sampleBits, // 输出采样数位 8, 16
    input: function (data) {
      this.buffer.push(new Float32Array(data))
      this.size += data.length
    },
    compress: function () { // 合并压缩
      // 合并
      let data = new Float32Array(this.size)
      let offset = 0
      for (let i = 0; i < this.buffer.length; i++) {
        data.set(this.buffer[i], offset)
        offset += this.buffer[i].length
      }
      // 压缩
      let compression = parseInt(this.inputSampleRate / this.outputSampleRate)
      let length = data.length / compression
      let result = new Float32Array(length)
      let index = 0; let j = 0
      while (index < length) {
        result[index] = data[j]
        j += compression
        index++
      }
      return result
    },
    encodeWAV: function () {
      let sampleRate = Math.min(this.inputSampleRate, this.outputSampleRate)
      let sampleBits = Math.min(this.inputSampleBits, this.oututSampleBits)
      let bytes = this.compress()
      let dataLength = bytes.length * (sampleBits / 8)
      let buffer = new ArrayBuffer(44 + dataLength)
      let data = new DataView(buffer)

      let channelCount = 1// 单声道
      let offset = 0

      let writeString = function (str) {
        for (let i = 0; i < str.length; i++) {
          data.setUint8(offset + i, str.charCodeAt(i))
        }
      }

      // 资源交换文件标识符
      writeString('RIFF'); offset += 4
      // 下个地址开始到文件尾总字节数,即文件大小-8
      data.setUint32(offset, 36 + dataLength, true); offset += 4
      // WAV文件标志
      writeString('WAVE'); offset += 4
      // 波形格式标志
      writeString('fmt '); offset += 4
      // 过滤字节,一般为 0x10 = 16
      data.setUint32(offset, 16, true); offset += 4
      // 格式类别 (PCM形式采样数据)
      data.setUint16(offset, 1, true); offset += 2
      // 通道数
      data.setUint16(offset, channelCount, true); offset += 2
      // 采样率,每秒样本数,表示每个通道的播放速度
      data.setUint32(offset, sampleRate, true); offset += 4
      // 波形数据传输率 (每秒平均字节数) 单声道×每秒数据位数×每样本数据位/8
      data.setUint32(offset, channelCount * sampleRate * (sampleBits / 8), true); offset += 4
      // 快数据调整数 采样一次占用字节数 单声道×每样本的数据位数/8
      data.setUint16(offset, channelCount * (sampleBits / 8), true); offset += 2
      // 每样本数据位数
      data.setUint16(offset, sampleBits, true); offset += 2
      // 数据标识符
      writeString('data'); offset += 4
      // 采样数据总数,即数据总大小-44
      data.setUint32(offset, dataLength, true); offset += 4
      // 写入采样数据
      if (sampleBits === 8) {
        for (let i = 0; i < bytes.length; i++ , offset++) {
          let s = Math.max(-1, Math.min(1, bytes[i]))
          let val = s < 0 ? s * 0x8000 : s * 0x7FFF
          val = parseInt(255 / (65535 / (val + 32768)))
          data.setInt8(offset, val, true)
        }
      } else {
        for (let i = 0; i < bytes.length; i++ , offset += 2) {
          let s = Math.max(-1, Math.min(1, bytes[i]))
          data.setInt16(offset, s < 0 ? s * 0x8000 : s * 0x7FFF, true)
        }
      }

      return new Blob([data], { type: 'audio/mp3' })
    }
  }

  // 开始录音
  this.start = function () {
    audioInput.connect(recorder)
    recorder.connect(context.destination)
  }

  // 停止
  this.stop = function () {
    recorder.disconnect()
  }

  // 获取音频文件
  this.getBlob = function () {
    this.stop()
    return audioData.encodeWAV()
  }

  // 回放
  this.play = function (audio) {
    let downRec = document.getElementById('downloadRec')
    downRec.href = window.URL.createObjectURL(this.getBlob())
    downRec.download = new Date().toLocaleString() + '.mp3'
    audio.src = window.URL.createObjectURL(this.getBlob())
  }

  // 上传
  this.upload = function (url, callback) {
    let fd = new FormData()
    fd.append('audioData', this.getBlob())
    let xhr = new XMLHttpRequest()
    /* eslint-disable */
    if (callback) {
      xhr.upload.addEventListener('progress', function (e) {
        callback('uploading', e)
      }, false)
      xhr.addEventListener('load', function (e) {
        callback('ok', e)
      }, false)
      xhr.addEventListener('error', function (e) {
        callback('error', e)
      }, false)
      xhr.addEventListener('abort', function (e) {
        callback('cancel', e)
      }, false)
    }
    /* eslint-disable */
    xhr.open('POST', url)
    xhr.send(fd)
  }

  // 音频采集
  recorder.onaudioprocess = function (e) {
    audioData.input(e.inputBuffer.getChannelData(0))
    // record(e.inputBuffer.getChannelData(0));
  }
}
// 抛出异常
HZRecorder.throwError = function (message) {
  alert(message)
  throw new function () { this.toString = function () { return message } }()
}
// 是否支持录音
HZRecorder.canRecording = (navigator.getUserMedia != null)
// 获取录音机
HZRecorder.get = function (callback, config) {
  if (callback) {
    if (navigator.getUserMedia) {
      navigator.getUserMedia(
        { audio: true } // 只启用音频
        , function (stream) {
          let rec = new HZRecorder(stream, config)
          callback(rec)
        }
        , function (error) {
          switch (error.code || error.name) {
            case 'PERMISSION_DENIED':
            case 'PermissionDeniedError':
              HZRecorder.throwError('用户拒绝提供信息。')
              break
            case 'NOT_SUPPORTED_ERROR':
            case 'NotSupportedError':
              HZRecorder.throwError('浏览器不支持硬件设备。')
              break
            case 'MANDATORY_UNSATISFIED_ERROR':
            case 'MandatoryUnsatisfiedError':
              HZRecorder.throwError('无法发现指定的硬件设备。')
              break
            default:
              HZRecorder.throwError('无法打开麦克风。异常信息:' + (error.code || error.name))
              break
          }
        })
    } else {
      HZRecorder.throwErr('当前浏览器不支持录音功能。'); return
    }
  }
}
export default HZRecorder

2. Используется на странице следующим образом

<template>
  <div class="wrap">
    <el-form v-model="form">
      <el-form-item>
        <input type="button" class="btn-record-voice" @mousedown.prevent="mouseStart" @mouseup.prevent="mouseEnd" v-model="form.time"/>
        <audio v-if="form.audioUrl" :src="form.audioUrl" controls="controls" class="content-audio" style="display: block;">语音</audio>
      </el-form-item>
    <el-form>
  </div>
</template>

<script>
// 引入recorder.js
import recording from '@/js/recorder/recorder.js'
export default {
  data() {
    return {
      form: {
        time: '按住说话(60秒)',
        audioUrl: ''
      },
      num: 60, // 按住说话时间
      recorder: null,
      interval: '',
      audioFileList: [], // 上传语音列表
      startTime: '', // 语音开始时间
      endTime: '', // 语音结束
    }
  },
     mounted() {
    // 初始化开启录音权限
    this.$nextTick (() => {
      recording.get(rec => {
        this.recorder = rec
      })
    }
   },
    methods: {
    // 清除定时器
    clearTimer () {
      if (this.interval) {
        this.num = 60
        clearInterval(this.interval)
      }
    },
    // 长按说话
    mouseStart () {
      this.clearTimer()
      this.startTime = new Date().getTime()
      recording.get((rec) => {
        // 当首次按下时,要获取浏览器的麦克风权限,所以这时要做一个判断处理
        if (rec) {
          this.recorder = rec
            this.interval = setInterval(() => {
              if (this.num <= 0) {
                this.recorder.stop()
                this.num = 60
                this.clearTimer()
              } else {
                this.num--
                this.time = '松开结束(' + this.num + '秒)'
                this.recorder.start()
              }
            }, 1000)
          }
      })
    },
    // 松开时上传语音
    mouseEnd () {
      this.clearTimer()
      this.endTime = new Date().getTime()
      if (this.recorder) {
        this.recorder.stop()
        // 重置说话时间
        this.num = 60
        this.time = '按住说话(' + this.num + '秒)'
        // 获取语音二进制文件
        let bold = this.recorder.getBlob()
        // 将获取的二进制对象转为二进制文件流
        let files = new File([bold], 'test.mp3', {type: 'audio/mp3', lastModified: Date.now()})
        let fd = new FormData()
        fd.append('file', files)
        fd.append('tenantId', 3) // 额外参数,可根据选择填写
        // 这里是通过上传语音文件的接口,获取接口返回的路径作为语音路径
        this.uploadFile(fd)
      }
    }
  }
}
</script>

<style scoped>
</style>

3. В дополнение к комментариям в приведенном выше коде есть несколько мест, на которые следует обратить внимание.

  • Когда вы загружаете голос, обычно есть два параметра, один из которых - путь голоса, голос длинный, путь - прямой.this.form.audioUrl, Однако здесь следует отметить, что, поскольку мы устанавливаем таймер в начале, задержка составляет одну секунду, поэтому нам нужно вычесть одну секунду из полученной длительности.
  • В первый раз, когда вы нажимаете и говорите, вы должны делать выводы, иначе вы сообщите об ошибке.
  • Третий момент тоже очень важен, т.к. я протестировал его в локальном проекте и могу реализовать функцию записи, но после упаковки в тестовую среду не могу получить доступ к микрофону.После многих попыток было обнаружено, что адрес нашего тестовая среда - http://***, и в Google Chrome есть такая политика безопасности, доступ к которой возможен только под локальным хостом и https, поэтому ее изменение отлично решает эту проблему.
  • В процессе использования могут возникнуть некоторые проблемы с совместимостью для разных браузеров, если вы столкнулись с ними, вам необходимо разобраться с ними отдельно.

Выше упоминалась функция нажатия и произнесения голоса.Далее поговорим о воспроизведении голоса.Существует два типа воспроизведения.Один - это возвращаемый формат mp3, который воспроизводится путем отображения звука, а другой - воспроизведение возвращенного формата amr.

  1. Обычное воспроизведение (mp3, wav)

В общем, этот формат не требует дополнительной конвертации воспроизведения, интерфейс обычно возвращает голосовой URL и долгое воспроизведение через звуковые метки, чтобы показать

  1. Формат AMR Player

Так как тег html5 не поддерживает воспроизведение файлов в формате amr, его нужно обрабатывать отдельно.

скачать npm установить benz-amr-recorder -S

В предположении, представленном в файле, выполните следующие действия.

// 播放,playurl为按钮的点击事件,url为获取的amr格式文件
    playUrl (url) {
      let amr = new BenzAMRRecorder()
      amr.initWithUrl(url).then(function () {
        amr.play()
      })
    }

Если вам нужно использовать формат amr для других операций, обратитесь к https://www.npmjs.com/package/benz-amr-recorder.

В проекте многому научились, поэтому приходится записывать, пока память ясна.Если что-то не так с вышесказанным, поправьте меня