首頁 > 軟體

Qt音視訊開發之利用ffmpeg實現解碼本地攝像頭

2023-03-25 06:02:20

一、前言

一開始用ffmpeg做的是視訊流的解析,後面增加了本地視訊檔的支援,到後面發現ffmpeg也是支援本地攝像頭裝置的,只要是原則上打通的比如win系統上相機程式、linux上茄子程式可以正常開啟就表示打通,整個解碼顯示過程完全一樣,就是開啟的時候要傳入裝置資訊,而且引數那邊可以指定解析度和影格率等,本地攝像機一般會支援多個解析度,使用者需要哪種解析度都可以指定該解析度進行採集。

這裡要說的一個小插曲就是在linux上測試這個功能的時候,發現編譯期間就失敗了,這就奇怪了,後面發現是靜態庫的原因,為了偷懶,一開始編譯的ffmpeg靜態庫,當換成動態庫的方式以後,一步跑通不要太完美,完美使用,所以如果有載入本地攝像頭裝置的需求的時候,儘量用動態庫的方式。一鼓作氣將程式碼移植到嵌入式linux板子上,完美,居然也可以,而且實時性挺好,可能內建了部分快取的原因,比自己用v4l2的方式更流暢一些。

由於本地攝像頭裝置採集回來的資料預設的yuv422格式,顯示資料那邊預設是yuv420格式,當然改成繪製yuv422也是可以的,但是有需要更改繪製程式碼,而且儲存那邊也要做特殊處理,所以考慮再三決定從源頭做轉換,用sws_scale轉換各種格式都非常方便,本來ffmpeg採集這邊就需要將非yuv420格式轉到yuv420格式。

二、效果圖

三、體驗地址

國內站點:https://gitee.com/feiyangqingyun

國際站點:https://github.com/feiyangqingyun

體驗地址:https://pan.baidu.com/s/1YOVD8nkoOSYwX9KgSauLeQ 提取碼:kcgz 檔名:bin_video_demo/bin_linux_video。

四、相關程式碼

void CameraThreadFFmpeg::initCamera()
{
    //https://blog.csdn.net/weixin_37921201/article/details/120357826
    //命令列開啟 ffplay -f dshow -i video="USB Video Device" -s 1280x720 -framerate 30

    //啟動計時
    timer.restart();

    //引數字典
    AVDictionary *options = NULL;

    //設定解析度
    QString size = QString("%1x%2").arg(videoWidth).arg(videoHeight);
    av_dict_set(&options, "video_size", size.toUtf8().constData(), 0);
    //設定影格率
    if (frameRate > 0) {
        av_dict_set(&options, "framerate", QString::number(frameRate).toUtf8().constData(), 0);
    }

    //設定輸入格式(前提是要對應裝置對應平臺支援)
    //av_dict_set(&options, "input_format", "mjpeg", 0);

    //設定影象格式(有些裝置設定了格式後影格率上不去)
    //av_dict_set(&options, "pixel_format", "yuyv422", 0);

    //列印裝置列表
    //FFmpegHelper::showDevice();
    //列印裝置引數
    //FFmpegHelper::showOption(cameraName);

    //範例化格式處理上下文
    formatCtx = avformat_alloc_context();

    AVInputFormatx *ifmt = NULL;
    QByteArray url = cameraName.toUtf8();
#if defined(Q_OS_WIN)
    //ifmt = av_find_input_format("vfwcap");
    ifmt = av_find_input_format("dshow");
    url = QString("video=%1").arg(cameraName).toUtf8();
#elif defined(Q_OS_LINUX)
    //ifmt = av_find_input_format("v4l2");
    ifmt = av_find_input_format("video4linux2");
#elif defined(Q_OS_MAC)
    ifmt = av_find_input_format("avfoundation");
#endif

    int result = avformat_open_input(&formatCtx, url.data(), ifmt, &options);
    av_dict_free(&options);
    if (result < 0) {
        debug("開啟地址", "錯誤: 開啟出錯 " + FFmpegHelper::getError(result));
        return;
    }

    //獲取流資訊
    result = avformat_find_stream_info(formatCtx, NULL);
    if (result < 0) {
        debug("開啟地址", "錯誤: 找流失敗 " + FFmpegHelper::getError(result));
        return;
    }

    //獲取最佳流索引
    AVCodecx *videoCodec;
    videoIndex = av_find_best_stream(formatCtx, AVMEDIA_TYPE_VIDEO, -1, -1, NULL, 0);
    if (videoIndex < 0) {
        debug("開啟地址", "錯誤: 未找到視訊流");
        return;
    }

    //獲取視訊流
    AVStream *videoStream = formatCtx->streams[videoIndex];

    //查詢視訊解碼器(如果上面av_find_best_stream第五個引數傳了則這裡不需要)
    AVCodecID codecID = FFmpegHelper::getCodecID(videoStream);
    videoCodec = avcodec_find_decoder(codecID);
    //videoCodec = avcodec_find_decoder_by_name("h264");
    if (!videoCodec) {
        debug("開啟地址", "錯誤: 查詢視訊解碼器失敗");
        return;
    }

    //建立視訊流解碼器上下文
    videoCodecCtx = avcodec_alloc_context3(videoCodec);
    if (!videoCodecCtx) {
        debug("開啟地址", "錯誤: 建立視訊解碼器上下文失敗");
        return;
    }

    result = FFmpegHelper::copyContext(videoCodecCtx, videoStream, false);
    if (result < 0) {
        debug("開啟地址", "錯誤: 設定視訊解碼器引數失敗");
        return;
    }

    //設定解碼器引數
    videoCodecCtx->flags |= AV_CODEC_FLAG_LOW_DELAY;
    videoCodecCtx->flags |= AV_CODEC_FLAG_GLOBAL_HEADER;
    videoCodecCtx->flags2 |= AV_CODEC_FLAG2_FAST;

    //開啟視訊解碼器
    result = avcodec_open2(videoCodecCtx, videoCodec, NULL);
    if (result < 0) {
        debug("開啟地址", "錯誤: 開啟視訊解碼器失敗 " + FFmpegHelper::getError(result));
        return;
    }

    //獲取實際解析度大小
    FFmpegHelper::getResolution(videoStream, videoWidth, videoHeight);
    //如果沒有獲取到寬高則返回
    if (videoWidth <= 0 || videoHeight <= 0) {
        debug("開啟地址", "錯誤: 獲取寬度高度失敗");
        return;
    }

    //獲取最終真實的影格率
    frameRate = av_q2d(videoStream->r_frame_rate);
    QString msg = QString("索引: %1 解碼: %2 影格率: %3 寬高: %4x%5").arg(videoIndex).arg(videoCodec->name).arg(frameRate).arg(videoWidth).arg(videoHeight);
    debug("視訊資訊", msg);
    openCamera();
}

bool CameraThreadFFmpeg::openCamera()
{
    //分配記憶體
    packet = FFmpegHelper::creatPacket(NULL);
    videoFrame = av_frame_alloc();
    yuvFrame = av_frame_alloc();
    imageFrame = av_frame_alloc();

    //設定屬性以便該幀物件正常
    yuvFrame->format = AV_PIX_FMT_YUV420P;
    yuvFrame->width = videoWidth;
    yuvFrame->height = videoHeight;

    //定義及獲取畫素格式
    AVPixelFormat srcFormat = AV_PIX_FMT_YUYV422;
    //通過解碼器獲取解碼格式
    srcFormat = videoCodecCtx->pix_fmt;
    //各種轉換速度比對 https://www.cnblogs.com/xumaojun/p/8541634.html
    int flags = SWS_FAST_BILINEAR;

    //分配視訊幀資料(轉yuv420)
    int yuvSize = av_image_get_buffer_size(AV_PIX_FMT_YUV420P, videoWidth, videoHeight, 1);
    yuvData = (quint8 *)av_malloc(yuvSize * sizeof(quint8));
    av_image_fill_arrays(yuvFrame->data, yuvFrame->linesize, yuvData, AV_PIX_FMT_YUV420P, videoWidth, videoHeight, 1);
    //視訊影象轉換(轉yuv420)
    yuvSwsCtx = sws_getContext(videoWidth, videoHeight, srcFormat, videoWidth, videoHeight, AV_PIX_FMT_YUV420P, flags, NULL, NULL, NULL);

    //分配視訊幀資料(轉rgb)
    int imageSize = av_image_get_buffer_size(AV_PIX_FMT_RGB24, videoWidth, videoHeight, 1);
    imageData = (quint8 *)av_malloc(imageSize * sizeof(quint8));
    av_image_fill_arrays(imageFrame->data, imageFrame->linesize, imageData, AV_PIX_FMT_RGB24, videoWidth, videoHeight, 1);
    //視訊影象轉換(轉rgb)
    imageSwsCtx = sws_getContext(videoWidth, videoHeight, AV_PIX_FMT_YUV420P, videoWidth, videoHeight, AV_PIX_FMT_RGB24, flags, NULL, NULL, NULL);

    //列印媒體資訊
    //av_dump_format(formatCtx, 0, 0, 0);
    QString msg = QString("源頭: %1 目標: %2").arg(srcFormat).arg(videoMode == VideoMode_Painter ? AV_PIX_FMT_RGB24 : AV_PIX_FMT_YUV420P);
    debug("格式資訊", msg);

    //初始化音訊播放
    this->initAudioPlayer();
    //初始化濾鏡
    this->initFilter();

    int time = timer.elapsed();
    debug("開啟成功", QString("用時: %1 毫秒").arg(time));
    emit receivePlayStart(time);
    emit recorderStateChanged(RecorderState_Stopped, fileName);
    isOk = true;
    return isOk;
}

五、功能特點

5.1 基礎功能

  • 支援各種音訊視訊檔格式,比如mp3、wav、mp4、asf、rm、rmvb、mkv等。
  • 支援本地攝像頭裝置,可指定解析度、影格率。
  • 支援各種視訊流格式,比如rtp、rtsp、rtmp、http等。
  • 本地音視訊檔和網路音視訊檔,自動識別檔案長度、播放進度、音量大小、靜音狀態等。
  • 檔案可以指定播放位置、調節音量大小、設定靜音狀態等。
  • 支援倍速播放檔案,可選0.5倍、1.0倍、2.5倍、5.0倍等速度,相當於慢放和快放。
  • 支援開始播放、停止播放、暫停播放、繼續播放。
  • 支援抓拍截圖,可指定檔案路徑,可選抓拍完成是否自動顯示預覽。
  • 支援錄影儲存,手動開始錄影、停止錄影,部分核心支援暫停錄影後繼續錄影,跳過不需要錄影的部分。
  • 支援無感知切換回圈播放、自動重連等機制。
  • 提供播放成功、播放完成、收到解碼圖片、收到抓拍圖片、視訊尺寸變化、錄影狀態變化等訊號。
  • 多執行緒處理,一個解碼一個執行緒,不卡主介面。

5.2 特色功能

  • 同時支援多種解碼核心,包括qmedia核心(Qt4/Qt5/Qt6)、ffmpeg核心(ffmpeg2/ffmpeg3/ffmpeg4/ffmpeg5)、vlc核心(vlc2/vlc3)、mpv核心(mpv1/mp2)、海康sdk、easyplayer核心等。
  • 非常完善的多重基礎類別設計,新增一種解碼核心只需要實現極少的程式碼量,就可以應用整套機制。
  • 同時支援多種畫面顯示策略,自動調整(原始解析度小於顯示控制元件尺寸則按照原始解析度大小顯示,否則等比例縮放)、等比例縮放(永遠等比例縮放)、拉伸填充(永遠拉伸填充)。所有核心和所有視訊顯示模式下都支援三種畫面顯示策略。
  • 同時支援多種視訊顯示模式,控制程式碼模式(傳入控制元件控制程式碼交給對方繪製控制)、繪製模式(回撥拿到資料後轉成QImage用QPainter繪製)、GPU模式(回撥拿到資料後轉成yuv用QOpenglWidget繪製)。
  • 支援多種硬體加速型別,ffmpeg可選dxva2、d3d11va等,mpv可選auto、dxva2、d3d11va,vlc可選any、dxva2、d3d11va。不同的系統環境有不同的型別選擇,比如linux系統有vaapi、vdpau,macos系統有videotoolbox。
  • 解碼執行緒和顯示錶單分離,可指定任意解碼核心掛載到任意顯示錶單,動態切換。
  • 支援共用解碼執行緒,預設開啟並且自動處理,當識別到相同的視訊地址,共用一個解碼執行緒,在網路視訊環境中可以大大節約網路流量以及對方裝置的推流壓力。國內頂尖視訊廠商均採用此策略。這樣只要拉一路視訊流就可以共用到幾十個幾百個通道展示。
  • 自動識別視訊旋轉角度並繪製,比如手機上拍攝的視訊一般是旋轉了90度的,播放的時候要自動旋轉處理,不然預設是倒著的。
  • 自動識別視訊流播放過程中解析度的變化,在視訊控制元件上自動調整尺寸。比如攝像機可以在使用過程中動態設定解析度,當解析度改動後對應視訊控制元件也要做出同步反應。
  • 音視訊檔無感知自動切換回圈播放,不會出現切換期間黑畫面等肉眼可見的切換痕跡。
  • 視訊控制元件同時支援任意解碼核心、任意畫面顯示策略、任意視訊顯示模式。
  • 視訊控制元件懸浮條同時支援控制程式碼、繪製、GPU三種模式,非絕對座標移來移去。
  • 本地攝像頭裝置支援指定裝置名稱、解析度、影格率進行播放。
  • 錄影檔案同時支援開啟的視訊檔、本地攝像頭、網路視訊流等。
  • 瞬間響應開啟和關閉,無論是開啟不存在的視訊或者網路流,探測裝置是否存在,讀取中的超時等待,收到關閉指令立即中斷之前的操作並響應。
  • 支援開啟各種圖片檔案,支援本地音視訊檔拖曳播放。
  • 視訊控制元件懸浮條自帶開始和停止錄影切換、聲音靜音切換、抓拍截圖、關閉視訊等功能。
  • 音訊元件支援聲音波形值資料解析,可以根據該值繪製波形曲線和柱狀聲音條,預設提供了聲音振幅訊號。
  • 各元件中極其詳細的列印資訊提示,尤其是報錯資訊提示,封裝的統一列印格式。針對現場複雜的裝置環境測試極其方便有用,相當於精確定位到具體哪個通道哪個步驟出錯。
  • 程式碼框架和結構優化到最優,效能強悍,持續迭代更新升級。
  • 原始碼支援Qt4、Qt5、Qt6,相容所有版本。

5.3 視訊控制元件

  • 可動態新增任意多個osd標籤資訊,標籤資訊包括名字、是否可見、字號大小、文字文字、文字顏色、標籤圖片、標籤座標、標籤格式(文字、日期、時間、日期時間、圖片)、標籤位置(左上角、左下角、右上角、右下角、居中、自定義座標)。
  • 可動態新增任意多個圖形資訊,這個非常有用,比如人工智慧演演算法解析後的圖形區域資訊直接發給視訊控制元件即可。圖形資訊支援任意形狀,直接繪製在原始圖片上,採用絕對座標。
  • 圖形資訊包括名字、邊框大小、邊框顏色、背景顏色、矩形區域、路徑集合、點座標集合等。
  • 每個圖形資訊都可指定三種區域中的一種或者多種,指定了的都會繪製。
  • 內建懸浮條控制元件,懸浮條位置支援頂部、底部、左側、右側。
  • 懸浮條控制元件引數包括邊距、間距、背景透明度、背景顏色、文字顏色、按下顏色、位置、按鈕圖示程式碼集合、按鈕名稱標識集合、按鈕提示資訊集合。
  • 懸浮條控制元件一排工具按鈕可自定義,通過結構體引數設定,圖示可選圖形字型還是自定義圖片。
  • 懸浮條按鈕內部實現了錄影切換、抓拍截圖、靜音切換、關閉視訊等功能,也可以自行在原始碼中增加自己對應的功能。
  • 懸浮條按鈕對應實現了功能的按鈕,有對應圖示切換處理,比如錄影按鈕按下後會切換到正在錄影中的圖示,聲音按鈕切換後變成靜音圖示,再次切換還原。
  • 懸浮條按鈕單擊後都用名稱唯一標識作為訊號發出,可以自行關聯響應處理。
  • 懸浮條空白區域可以顯示提示資訊,預設顯示當前視訊解析度大小,可以增加影格率、碼流大小等資訊。
  • 視訊控制元件引數包括邊框大小、邊框顏色、焦點顏色、背景顏色(預設透明)、文字顏色(預設全域性文字顏色)、填充顏色(視訊外的空白處填充黑色)、背景文字、背景圖片(如果設定了圖片優先取圖片)、是否拷貝圖片、縮放顯示模式(自動調整、等比例縮放、拉伸填充)、視訊顯示模式(控制程式碼、繪製、GPU)、啟用懸浮條、懸浮條尺寸(橫向為高度、縱向為寬度)、懸浮條位置(頂部、底部、左側、右側)。

以上就是Qt音視訊開發之利用ffmpeg實現解碼本地攝像頭的詳細內容,更多關於Qt ffmpeg解碼本地攝像頭的資料請關注it145.com其它相關文章!


IT145.com E-mail:sddin#qq.com