QT实现视频传输功能

本文实例为大家分享了QT实现视频传输功能的具体代码,供大家参考,具体内容如下

前言

我们经常会进行视频的传输,这篇文章我们将讲解QT下的视频传输。

客户端

udp客户端,我们主要获取某个视频的文件,采用opencv读取后,分帧传输。我们将图片解码成base-64格式

参考代码

#include "ImageClient.h"
#include<QDebug>
#include<QBuffer>
#include<QFileDialog>
#include <opencv2/opencv.hpp>
ImageClient::ImageClient(QWidget *parent)
    : QWidget(parent)
{
    ui.setupUi(this);
    counter = 0;
    time = new QTimer(this);
    time->start(180);
    connect(time, SIGNAL(timeout()), this, SLOT(readFrame()));
    cap.open("F:/1.avi");
    if (!cap.isOpened())
    {
        qDebug() << " ===> Failed";
    }
    else
    {
        qDebug() << " ===> Succeed";
    }
    receiver = new QUdpSocket(this);
}
QByteArray ImageClient::getImageData2( QImage &image)
{
    QByteArray imageData;
    QBuffer buffer(&imageData);
    image.save(&buffer, "jpg");
    imageData = imageData.toBase64();
    return imageData;
}
QImage ImageClient::mat2QImage(cv::Mat cvImg)
{
    QImage qImg;

    if (cvImg.channels() == 3)                             //3 channels color image
    {
        cv::cvtColor(cvImg, cvImg, COLOR_BGR2RGB);
        qImg = QImage((const unsigned char*)(cvImg.data),
            cvImg.cols, cvImg.rows,
            cvImg.cols*cvImg.channels(),
            QImage::Format_RGB888);
    }

    else if (cvImg.channels() == 1)                    //grayscale image
    {
        qImg = QImage((const unsigned char*)(cvImg.data),
            cvImg.cols, cvImg.rows,
            cvImg.cols*cvImg.channels(),
            QImage::Format_Indexed8);
    }

    else
    {
        qImg = QImage((const unsigned char*)(cvImg.data),
            cvImg.cols, cvImg.rows,
            cvImg.cols*cvImg.channels(),
            QImage::Format_RGB888);
    }
    return qImg;
}
void ImageClient::readFrame()
{
    counter++;
    Mat source, result;
    qDebug() << counter;
    cap.read(source);
    if (source.empty())//如果视频已经读取完成则停止发送timeout()信号
    {
        time->stop();
        qDebug() << "End";
        return;
    }
    auto image = mat2QImage(source) ;
    ui.label->setPixmap(QPixmap::fromImage(image));
    auto data = getImageData2(image);
    receiver->writeDatagram(data.data(),
        data.size(),
        QHostAddress::Broadcast,    //udp广播地址
        7777);
}

服务端

获取客户端数据然后展现。代码如下:

#include "Server.h"
#include<QMutexLocker>
#pragma execution_character_set("utf-8")
Server::Server(QWidget *parent)
    : QWidget(parent)
{
    ui.setupUi(this);
    udpSocket = new QUdpSocket(this);
    udpSocket->bind(QHostAddress::AnyIPv4, 7777);
    connect(udpSocket, SIGNAL(readyRead()), this, SLOT(Run()), Qt::QueuedConnection);//udp数据接收        
    
}
QImage Server::getImage(const QString &data)
{
    QByteArray imageData = QByteArray::fromBase64(data.toLatin1());
    QImage image;
    image.loadFromData(imageData);
    return image;
}
void Server::Run()
{
    try
    {
        QMutexLocker locker(&mutexImage);
        datagram.resize(udpSocket->pendingDatagramSize());
        auto len = udpSocket->readDatagram(datagram.data(), datagram.size());
        auto image = Server::getImage(datagram);
        ui.label->setPixmap(QPixmap::fromImage(image));
        this_thread::sleep_for(std::chrono::milliseconds(180));
    }
    catch (const std::exception& e)
    {
    }
}

效果

总结

一个简单的测试效果完成了,效果还不错。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • 基于QT制作一个简易的传输文件小工具

    最近因为一个事情很恼火,因为办公需要用到企业微信,但是企业微信只能在一个电脑上登陆,所以当别人发文件给你的时候,你只能一个电脑接收,创建共享文件夹也很麻烦,每次都需要去访问,很麻烦.所以准备自己写一个文件传输小工具. 功能就是能实现文件的双向传输,即客户端能传给服务端,服务端可以传给客户端. 使用的tcp通信,其实就是发消息,但是组合数据我是借鉴了IT1995大神写的代码. 先看下效果图 可以看到既可以接受文件也可进行发送文件,只要2台电脑在统一局域网内,就可发送和接受数据. 本地文件下出现了一

  • QT UDP网络编程实现简单消息传输

    本文实例为大家分享了QT UDP实现简单消息传输的具体代码,供大家参考,具体内容如下 这几天看了下Qt的udp,顺便实现了下简单的消息传输,看起来比较简单. UDP服务器: 截图如下: 代码: server.h #ifndef WIDGET_H #define WIDGET_H #include <QWidget> #include<QUdpSocket> #include<QtNetwork> #include<QLabel> #include<QP

  • QT基于TCP实现文件传输系统

    本文实例为大家分享了QT基于TCP实现文件传输系统的具体代码,供大家参考,具体内容如下 一.设计目标 1.发送端选择要传输的文件,进度条显示传输的进度,手动输入要传输的ip地址和端口号 2.接收到数据后显示接收进度,接收完毕后进度条自动消失 二.效果展示 三.实现过程 Qt文件传输发送端 1. 连接服务器 2. 当连接成功后会发送connected信号 3. 在槽函数中发送文件头信息 4. 当数据发送成功后会发送bytesWritten 5. 在槽函数中发送文件内容 UI布局 filesend.

  • QT实现视频传输功能

    本文实例为大家分享了QT实现视频传输功能的具体代码,供大家参考,具体内容如下 前言 我们经常会进行视频的传输,这篇文章我们将讲解QT下的视频传输. 客户端 udp客户端,我们主要获取某个视频的文件,采用opencv读取后,分帧传输.我们将图片解码成base-64格式 参考代码 #include "ImageClient.h" #include<QDebug> #include<QBuffer> #include<QFileDialog> #inclu

  • QT实现文件传输功能

    本文实例为大家分享了QT实现文件传输功能的具体代码,供大家参考,具体内容如下 过程如下: 1.服务器端设置监听套接字,开始监听: 2.客户端在连接成功时开始传送文件,有connected()信号连接send()槽,send()发送文件头信息,包括文件名.文件总大小和文件名大小等: 3.传送完文件头信息时开始传送文件内容,有bytesWritten(qint64)信号连接到goOnSend(qint64)槽,前者是当想套接字写入数据时会出发的信号,即当已经想套接字写入数据,就继续传送数据,有sen

  • python实现不同电脑之间视频传输功能

    1. imageZMQ库实现 imageZMQ库链接:https://github.com/jeffbass/imagezmq 该库原本是用于树莓派上的视频传输,其包含很多示例,有兴趣可以去看看. 上图中间的笔记本为发送端,其余两个屏幕显示的是接收端视频.本文视频传输实现的前提是确保发送端和接收端接在同一个局域网下. 发送端 import socket import time import cv2 import imagezmq import traceback import simplejpe

  • Qt音视频开发之视频文件保存功能的实现

    目录 一.前言 二.效果图 三.体验地址 四.相关代码 五.功能特点 5.1 基础功能 5.2 特色功能 5.3 视频控件 5.4 内核ffmpeg 一.前言 和音频存储类似,视频的存储也对应三种格式,视频最原始的数据是yuv(音频对应pcm),视频压缩后的数据是h264(音频对应aac),由于很多播放器或者早期的播放器不支持直接播放h264文件,所以需要用编码器编码成mp4格式,这块就需要用到ffmpeg里面一整套的编码流程,对yuv数据进行编码成MP4格式存储. 在经过对各种视频文件或者视频

  • vue + typescript + video.js实现 流媒体播放 视频监控功能

    视频才用流媒体,有后台实时返回数据, 要支持flash播放, 所以需安装对应的flash插件.当视频播放时,每间隔3秒向后台发送请求供检测心跳,表明在线收看状态,需要后台持续发送视频数据. 1. yarn add video.js videojs-flash 2. 创建videp.js声明文件 3. 创建video_player.vue组件,供外部调用.源码如下 <script lang="ts"> import { Component, Emit, Prop, Vue }

  • Python使用UDP实现720p视频传输的操作

    1. 项目背景 视频传输: 在一台电脑上播放视频(捕捉摄像头画面),同局域网内另一台电脑上实时播放,尽量不卡顿. 先放最后的照片,和用gif展示一下视频效果. 传输视频可以采取图片或者流的形式,本文采取传输图片的形式,在1s之内显示多张图片从而形成连续的视频画面. 经费有限,所有实验均基于笔记本电脑. 使用的视频源是本机摄像头,以及进击的巨人720p资源. 2. 解决方案 1. 使用Python的Socket,使用opencv捕捉摄像头/视频的画面. 2. 原始的图片很大(720p的大小是192

  • 基于Qt实现视频播放器功能

    目录 一.功能介绍 二.代码 三.运行 一.功能介绍 能实现视频播放 二.代码 mainwindow.h #ifndef MAINWINDOW_H #define MAINWINDOW_H #include <QMainWindow> #include <QMediaPlayer> #include <QMediaPlaylist> #include <QPushButton> #include <QSlider> #include <QV

  • Golang 实现 RTP音视频传输示例详解

    目录 引言 RTP 数据包头部字段 Golang 的相关实现 结尾 引言 在 Coding 之前我们先来简单介绍一下 RTP(Real-time Transport Protocol), 正如它的名字所说,用于互联网的实时传输协议,通过 IP 网络传输音频和视频的网络协议. 由音视频传输工作小组开发,1996 年首次发布,并提出了以下使用设想. 简单的多播音频会议 使用 IP 的多播服务进行语音通信.通过某种分配机制,获取多播组地址和端口对.一个端口用于音频数据的,另一个用于控制(RTCP)包,

  • Qt音视频开发之利用ffmpeg实现倍速播放

    目录 一.前言 二.功能特点 2.1 基础功能 2.2 特色功能 2.3 视频控件 2.4 内核ffmpeg 三.体验地址 四.效果图 五.相关代码 一.前言 用ffmpeg做倍速播放,是好多年都一直没有实现的功能,有个做法是根据倍速参数,不断切换播放位置,实现效果不是很好,ffplay中的倍速就做得很好,而且声音无论倍速多少还非常柔和,有特别的降噪处理啥的,ffplay中的倍速使用的滤镜去实现,并动态调整pts/dts的值,整个处理过程看起来比较复杂,想着有没有稍微简单一点的办法,在经过一个朋

  • Qt音视频开发之利用ffmpeg实现解码本地摄像头

    目录 一.前言 二.效果图 三.体验地址 四.相关代码 五.功能特点 5.1 基础功能 5.2 特色功能 5.3 视频控件 一.前言 一开始用ffmpeg做的是视频流的解析,后面增加了本地视频文件的支持,到后面发现ffmpeg也是支持本地摄像头设备的,只要是原则上打通的比如win系统上相机程序.linux上茄子程序可以正常打开就表示打通,整个解码显示过程完全一样,就是打开的时候要传入设备信息,而且参数那边可以指定分辨率和帧率等,本地摄像机一般会支持多个分辨率,用户需要哪种分辨率都可以指定该分辨率

随机推荐