ffmpeg播放器实现详解之框架搭建过程

ffplay是ffmpeg源码中一个自带的开源播放器实例,同时支持本地视频文件的播放以及在线流媒体播放,功能非常强大。

FFplay: FFplay is a very simple and portable media player using the FFmpeg libraries and the SDL library. It is mostly used as a testbed for the various FFmpeg APIs.

ffplay中的代码充分调用了ffmpeg中的函数库,因此,想学习ffmpeg的使用,或基于ffmpeg开发一个自己的播放器,ffplay都是一个很好的切入点。

由于ffmpeg本身的开发文档比较少,且ffplay播放器源码的实现相对复杂,除了基础的ffmpeg组件调用外,还包含视频帧的渲染、音频帧的播放、音视频同步策略及线程调度等问题。

因此,这里我们以ffmpeg官网推荐的一个ffplay播放器简化版本的开发例程为基础,在此基础上循序渐进由浅入深,最终探讨实现一个视频播放器的完整逻辑。

ffplay播放器简化版本开发例程可在ffmpeg官网[documentation]页面的右下角找到,点击An FFmpeg and SDL Tutorial即可打开找到对应的源码。

1、项目编译环境搭建

这里仍以Ubuntu 16.04 LTS为基础进行讲述,由于ffmpeg支持多个主流平台,且api接口在各个平台是一致的,因此其他平台也可参照本文内容,后续会将代码移植到windows等其他平台,方便大家调试。

源码的编译除了ffmpeg环境外,还需要SDL-1.x版本的支持,用于提供视频帧的渲染及音频帧的播放。

1.1 sdl库编译

SDL(Simple DirectMedia Layer)是一个跨平台的多媒体和游戏开发包,提供2D,音频,事件驱动,多线程和定时器等服务,它使用C语言写成,提供了多种控制图像、声音、输出的函数,让开发者只要用相同或是相似的代码就可以开发出跨多个平台(Linux、Windows、Mac OS X等)的应用软件。

SDL: Simple DirectMedia Layer is a cross-platform development library designed to provide low level access to audio, keyboard, mouse, joystick, and graphics hardware via OpenGL and Direct3D. It is used by video playback software, emulators, and popular games including Valve's award winning catalog and many Humble Bundle games.

可通过下面的链接下载SDL-1.2.15源码,注意,例程中依赖的SDL版本与ffplay中有所不同

https://www.libsdl.org/download-1.2.php

下载完成后解压进入sdl源码目录,可通过下面的配置方法生成Makefile文件

./configure --prefix=/usr/local/3rdparty/sdl

生成Makefile文件后,输入make命令即可开始编译过程,编译完成后,执行make install命令进行安装

make
make install

安装完成后,会在configure指定的目录下找到sdl的目录,由于sdl以库文件的方式提供支持,因此在sdl/bin目录下没有对应的可执行文件。

1.2 sdl环境变量配置

sdl编译完成后,还需要让系统能够找到对应的安装位置。打开/etc/profile配置文件,在该文件底部添加sdl的环境变量

#SDL ENVIRONMENT
export C_INCLUDE_PATH=/usr/local/3rdparty/sdl/include/SDL:$C_INCLUDE_PATH
export LD_LIBRARY_PATH=/usr/local/3rdparty/sdl/lib:$LD_LIBRARY_PATH
export PKG_CONFIG_PATH=/usr/local/3rdparty/sdl/lib/pkgconfig:$PKG_CONFIG_PATH

1.3 项目源码编译

项目源码可采用如下Makefile脚本进行编译

tutorial01: tutorial01.c
	gcc -o tutorial01 -g3 tutorial01.c -I${FFMPEG_INCLUDE} -I${SDL_INCLUDE} \
	-L${FFMPEG_LIB} -lavutil -lavformat -lavcodec -lswscale -lswresample -lz -lm \
	`sdl-config --cflags --libs`

clean:
	rm -rf tutorial01
	rm -rf *.ppm

执行make命令开始编译,编译完成后,可在源码目录生成名为[tutorial01]的可执行文件。

1.4 验证

与ffplay的使用方法类似,执行[tutorial01 url]命令,可以看到在源码目录生成的后缀名为.ppm的图像

./tutorial01 rtmp://58.200.131.2:1935/livetv/hunantv

ppm图像在linux平台下可直接打开,看到有ppm图像生成,即可确定项目能够正常工作,输入Ctrl+C结束程序运行。

ppm格式的图像平时不太常用,大家没有必要做深入研究,这里仅用于对编译结果的验证。

PPM: A PPM file is a 24-bit color image formatted using a text format. It stores each pixel with a number from 0 to 65536, which specifies the color of the pixel. PPM files also store the image height and width, whitespace data, and the maximum color value. The portable pixmap format (PPM), the portable graymap format (PGM) and the portable bitmap format (PBM) are image file formats designed to be easily exchanged between platforms.

2 源码分析

上述例程除了生成几张图片外,好像什么也做不了,似乎离一个功能完整的视频播放器还有很远的距离。

尽管如此,例程依然包含了ffmpeg视频开发用到的几乎所有关键的api与数据结构。后面的内容会在此基础上不断的完善,直至实现一个完整的视频播放器。

2.1 流程

下面给出例程的流程图,流程非常简单,所有代码都运行在主线程中,流程涉及api及数据结构的含义都在例程源码中有详细的注释。

2.2 源码中涉及的api及组件

由于篇幅的限制,这里先简要介绍每个组件及api的含义,后续文章中会深入介绍每个组件及api的使用方法

组件:

  • AVFormatContext 保存文件容器封装信息及码流参数的结构体
  • AVCodecContext 解码器上下文对象,解码器依赖的相关环境、状态、资源以及参数集的接口指针
  • AVCodec 保存编解码器信息的结构体,提供编码与解码的公共接口
  • AVPacket 负责保存压缩编码数据相关信息的结构体,每帧图像由一到多个packet包组成
  • AVFrame 保存音视频解码后的数据,如状态信息、编解码器信息、宏块类型表,QP表,运动矢量表等数据
  • SwsContext 描述转换器参数的结构体

api :

  • av_register_all 注册所有ffmpeg支持的多媒体格式及编解码器
  • avformat_open_input 打开视频文件,读文件头内容,取得文件容器的封装信息及码流参数并存储在pFormatCtx中
  • avformat_find_stream_info 取得文件中保存的码流信息,并填充到pFormatCtx->stream 字段
  • avcodec_find_decoder 根据视频流对应的解码器上下文查找对应的解码器,返回对应的解码器
  • avcodec_alloc_context3 复制编解码器上下文对象,用于保存从视频流中抽取的帧
  • avcodec_open2 打开解码器
  • av_frame_alloc 为解码后的视频信息结构体分配空间并完成初始化操作
  • av_read_frame 从文件中依次读取每个图像编码数据包,并存储在AVPacket数据结构中
  • avcodec_decode_video2 解码完整的一帧数据,若一个packet无法解码一个完整的视频帧,则在ffmpeg后台维护的缓存队列会持续等待多个packet,直到能够解码出一个完整的视频帧为止

3 ffmpeg能帮我们做什么

视频开发涉及到多种视频格式的编解码,多种文件格式及传输协议的解封装等操作,很难一下子全部掌握。

ffmpeg通过其封装的api及组件,为我们屏蔽了不同视频封装格式及编码格式的差异,以统一的api接口提供给开发者使用,开发者不需要了解每种编码方式及封装方式具体的技术细节,只需要调用ffmpeg提供的api就可以完成解封装和解码的操作了。

至于视频帧的渲染及音频帧的播放,ffmpeg就无能为力了,因此需要借助类似sdl库等其他组件完成,后面的章节会为大家介绍继续介绍。

4 源码清单

// tutorial01.c
// Code based on a tutorial by Martin Bohme (boehme@inb.uni-luebeckREMOVETHIS.de)
// Tested on Gentoo, CVS version 5/01/07 compiled with GCC 4.1.1
// With updates from https://github.com/chelyaev/ffmpeg-tutorial
// Updates tested on:
// LAVC 54.59.100, LAVF 54.29.104, LSWS 2.1.101
// on GCC 4.7.2 in Debian February 2015
//
// Updates tested on:
// Mac OS X 10.11.6
// Apple LLVM version 8.0.0 (clang-800.0.38)
//
// A small sample program that shows how to use libavformat and libavcodec to read video from a file.
//
// Use
//
// $ gcc -o tutorial01 tutorial01.c -lavutil -lavformat -lavcodec -lswscale -lz -lm
//
// to build (assuming libavutil/libavformat/libavcodec/libswscale are correctly installed your system).
//
// Run using
//
// $ tutorial01 myvideofile.mpg
//
// to write the first five frames from "myvideofile.mpg" to disk in PPM format.

// comment by breakpointlab@outlook.com

#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#include <libavutil/imgutils.h>

#include <stdio.h>

// compatibility with newer API
#if LIBAVCODEC_VERSION_INT < AV_VERSION_INT(55,28,1)
#define av_frame_alloc avcodec_alloc_frame
#define av_frame_free avcodec_free_frame
#endif

//保存PPM文件
void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame) {
	FILE *pFile;//定义文件对象
	char szFilename[32];//定义输出文件名

	// Open file,打开文件
	sprintf(szFilename, "frame%d.ppm", iFrame);//格式化输出文件名
	pFile = fopen(szFilename, "wb");//打开输出文件
	if (pFile == NULL) {//检查输出文件是否打开成功
		return;
	}

	// Write header indicated how wide & tall the image is,向输出文件中写入文件头
	fprintf(pFile, "P6\n%d %d\n255\n", width, height);

	// Write pixel data,write the file one line a time,一次一行循环写入RGB24像素值
	int y;
	for (y = 0; y < height; y++) {
		fwrite(pFrame->data[0]+y*pFrame->linesize[0], 1, width*3, pFile);
	}

	// Close file,关闭文件
	fclose(pFile);
}

int main(int argc, char *argv[]) {
/*--------------参数定义-------------*/
	// Initalizing these to NULL prevents segfaults!
	AVFormatContext *pFormatCtx = NULL;//保存文件容器封装信息及码流参数的结构体
	AVCodecContext *pCodecCtxOrig = NULL;//解码器上下文对象,解码器依赖的相关环境、状态、资源以及参数集的接口指针
	AVCodecContext *pCodecCtx = NULL;//编码器上下文对象,用于PPM文件输出
	AVCodec *pCodec = NULL;//保存编解码器信息的结构体,提供编码与解码的公共接口,可以看作是编码器与解码器的一个全局变量
	AVPacket packet;//负责保存压缩编码数据相关信息的结构体,每帧图像由一到多个packet包组成
	AVFrame *pFrame = NULL;//保存音视频解码后的数据,如状态信息、编解码器信息、宏块类型表,QP表,运动矢量表等数据
	AVFrame *pFrameRGB = NULL;//保存输出24-bit RGB的PPM文件数据
	struct SwsContext *sws_ctx = NULL;//描述转换器参数的结构体

	int numBytes;//RGB24格式数据长度
	uint8_t *buffer = NULL;//解码数据输出缓存指针
	int i,videoStream;//循环变量,视频流类型标号
	int frameFinished;//解码操作是否成功标识

/*-------------参数初始化------------*/
	if (argc<2) {//检查输入参数个数是否正确
		printf("Please provide a movie file\n");
		return -1;
	}

	// Register all available formats and codecs,注册所有ffmpeg支持的多媒体格式及编解码器
	av_register_all();

	/*-----------------------
	 * Open video file,打开视频文件,读文件头内容,取得文件容器的封装信息及码流参数并存储在pFormatCtx中
	 * read the file header and stores information about the file format in the AVFormatContext structure
	 * The last three arguments are used to specify the file format, buffer size, and format options
	 * but by setting this to NULL or 0, libavformat will auto-detect these
	 -----------------------*/
	if (avformat_open_input(&pFormatCtx, argv[1], NULL, NULL) != 0) {
		return -1; // Couldn't open file.
	}

	/*-----------------------
	 * 取得文件中保存的码流信息,并填充到pFormatCtx->stream 字段
	 * check out & Retrieve the stream information in the file
	 * then populate pFormatCtx->stream with the proper information
	 * pFormatCtx->streams is just an array of pointers, of size pFormatCtx->nb_streams
	 -----------------------*/
	if (avformat_find_stream_info(pFormatCtx, NULL) < 0) {
		return -1; // Couldn't find stream information.
	}

	// Dump information about file onto standard error,打印pFormatCtx中的码流信息
	av_dump_format(pFormatCtx, 0, argv[1], 0);

	// Find the first video stream.
	videoStream=-1;//视频流类型标号初始化为-1
	for (i=0;i<pFormatCtx->nb_streams;i++) {//遍历文件中包含的所有流媒体类型(视频流、音频流、字幕流等)
		if(pFormatCtx->streams[i]->codec->codec_type==AVMEDIA_TYPE_VIDEO) {//若文件中包含有视频流
			videoStream = i;//用视频流类型的标号修改标识,使之不为-1
			break;//退出循环
		}
	}
	if (videoStream==-1) {//检查文件中是否存在视频流
		return -1; // Didn't find a video stream.
	}

	// Get a pointer to the codec context for the video stream,根据流类型标号从pFormatCtx->streams中取得视频流对应的解码器上下文
	pCodecCtxOrig = pFormatCtx->streams[videoStream]->codec;
	/*-----------------------
	 * Find the decoder for the video stream,根据视频流对应的解码器上下文查找对应的解码器,返回对应的解码器(信息结构体)
	 * The stream's information about the codec is in what we call the "codec context.
	 * This contains all the information about the codec that the stream is using
	 -----------------------*/
	pCodec = avcodec_find_decoder(pCodecCtxOrig->codec_id);
	if (pCodec == NULL) {//检查解码器是否匹配
		fprintf(stderr, "Unsupported codec!\n");
		return -1; // Codec not found.
	}

	// Copy context,复制编解码器上下文对象,用于保存从视频流中抽取的帧
	pCodecCtx = avcodec_alloc_context3(pCodec);//创建AVCodecContext结构体对象pCodecCtx
	if (avcodec_copy_context(pCodecCtx, pCodecCtxOrig) != 0) {//复制编解码器上下文对象
		fprintf(stderr, "Couldn't copy codec context");
		return -1; // Error copying codec context.
	}

	// Open codec,打开解码器
	if (avcodec_open2(pCodecCtx, pCodec, NULL) < 0) {
		return -1; // Could not open codec.
	}

	// Allocate video frame,为解码后的视频信息结构体分配空间并完成初始化操作(结构体中的图像缓存按照下面两步手动安装)
	pFrame = av_frame_alloc();

	// Allocate an AVFrame structure,为转换PPM文件的结构体分配空间并完成初始化操作
	pFrameRGB = av_frame_alloc();
	if (pFrameRGB == NULL) {//检查初始化操作是否成功
		return -1;
	}

	// Determine required buffer size and allocate buffer,根据像素格式及图像尺寸计算内存大小
	numBytes = av_image_get_buffer_size(AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height, 1);
	buffer = (uint8_t *) av_malloc(numBytes * sizeof(uint8_t));//为转换后的RGB24图像配置缓存空间

	// Assign appropriate parts of buffer to image planes in pFrameRGB Note that pFrameRGB is an AVFrame, but AVFrame is a superset of AVPicture
	// 为AVFrame对象安装图像缓存,将out_buffer缓存挂到pFrameYUV->data指针结构上
	av_image_fill_arrays(pFrameRGB->data, pFrameRGB->linesize, buffer, AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height, 1);

	// Initialize SWS context for software scaling,设置图像转换像素格式为AV_PIX_FMT_RGB24
	sws_ctx = sws_getContext(pCodecCtx->width, pCodecCtx->height, pCodecCtx->pix_fmt, pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB24, SWS_BILINEAR, NULL, NULL, NULL);

/*--------------循环解码-------------*/
	i = 0;// Read frames(2 packet) and save first five frames to disk,
	/*-----------------------
	 * read in a packet and store it in the AVPacket struct
	 * ffmpeg allocates the internal data for us,which is pointed to by packet.data
	 * this is freed by the av_free_packet()
	 -----------------------*/
	while (av_read_frame(pFormatCtx, &packet) >= 0) {//从视频文件或网络流媒体中依次读取每个图像编码数据包,并存储在AVPacket数据结构中
		// Is this a packet from the video stream,检查数据包类型
		if (packet.stream_index == videoStream) {
		  /*-----------------------
	 		 * Decode video frame,解码完整的一帧数据,并将frameFinished设置为true
			 * 可能无法通过只解码一个packet就获得一个完整的视频帧frame,可能需要读取多个packet才行
	 		 * avcodec_decode_video2()会在解码到完整的一帧时设置frameFinished为真
			 * Technically a packet can contain partial frames or other bits of data
			 * ffmpeg's parser ensures that the packets we get contain either complete or multiple frames
			 * convert the packet to a frame for us and set frameFinisned for us when we have the next frame
	 	 	 -----------------------*/
			avcodec_decode_video2(pCodecCtx, pFrame, &frameFinished, &packet);

			// Did we get a video frame,检查是否解码出完整一帧图像
			if (frameFinished) {
				// Convert the image from its native format to RGB,//将解码后的图像转换为RGB24格式
				sws_scale(sws_ctx, (uint8_t const * const *) pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize);

				if (++i <= 5) {// Save the frame to disk,将前5帧图像存储到磁盘上
					SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i);
				}
			}
		}
		// Free the packet that was allocated by av_read_frame,释放AVPacket数据结构中编码数据指针
		av_packet_unref(&packet);
	}

/*--------------参数撤销-------------*/
	// Free the RGB image buffer
	av_free(buffer);
	av_frame_free(&pFrameRGB);

	// Free the YUV frame.
	av_frame_free(&pFrame);

	// Close the codecs.
	avcodec_close(pCodecCtx);
	avcodec_close(pCodecCtxOrig);

	// Close the video file.
	avformat_close_input(&pFormatCtx);

	return 0;
}

到此这篇关于ffmpeg播放器实现详解之 框架搭建过程的文章就介绍到这了,更多相关ffmpeg播放器框架搭建内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • Java通过调用FFMPEG获取视频时长

    FFmpeg是一套可以用来记录.转换数字音频.视频,并能将其转化为流的开源计算机程序.采用LGPL或GPL许可证.它提供了录制.转换以及流化音视频的完整解决方案.它包含了非常先进的音频/视频编解码库libavcodec,为了保证高可移植性和编解码质量,libavcodec里很多codec都是从头开发的. 由此看来FFmpeg很强大,很多主流的音频.视频处理软件都使用了FFmpeg. FFmpeg下载下来解压,cmd进入到FFmpeg.exe目录中,即可在命令行下进行各种操作,查看视频信息命令:f

  • ffmpeg播放器实现详解之视频显示(推荐)

    FFmpeg是一套可以用来记录.转换数字音频.视频,并能将其转化为流的开源计算机程序.它包括了目前领先的音/视频编码库libavcodec. FFmpeg是在 Linux 下开发出来的,但它可以在包括 Windows 在内的大多数操作系统中编译.这个项目是由 Fabrice Bellard 发起的,现在由 Michael Niedermayer 主持.可以轻易地实现多种视频格式之间的相互转换,例如可以将摄录下的视频avi等转成现在视频网站所采用的flv格式. ffplay是ffmpeg源码中一个

  • CentOS服务器中安装FFmpeg的完整步骤

    前言 服务器系统环境为:CentOS 6.5(final): 在服务器成功安装FFmpeg颇废了一番功夫,总结一下成功安装的过程,希望对大家有用 ^_^ : Ps:使用Java调用FFmpeg处理音视频媒体文件可以参考 Java使用FFmpeg处理视频文件指南 查看CentOS版本命令:rpm -q centos-release CentOS 7 安装参考这里:点我哦 通过Yum安装 按顺序执行下方的命令来安装FFmpeg: 注意:命令默认以root用户执行,如果非root用户,请在每条命令前增

  • python整合ffmpeg实现视频文件的批量转换

    转换工具层出不穷,ffmpeg才是全能的转换工具,只是不支持图形操作. 没有关系,命令行方式,在freebsd/linux下直接来 我们的思路是,设定一个文件夹存放源视频文件,python读取该文件夹下的全部文件,并对文件通过ffmpeg进行分析,根据需要,修改目标文件的编码.分辨率等等,调用ffmpeg转换. 我这次的需求是,我家液晶电视只支持分辨来,长宽均小于720,编码只支持divx/xvid的avi文件,且fps只能小于25--多次实践,才总结出来的,电视说明书也没说!! 下面的程序将

  • ffmpeg播放器实现详解之框架搭建过程

    ffplay是ffmpeg源码中一个自带的开源播放器实例,同时支持本地视频文件的播放以及在线流媒体播放,功能非常强大. FFplay: FFplay is a very simple and portable media player using the FFmpeg libraries and the SDL library. It is mostly used as a testbed for the various FFmpeg APIs. ffplay中的代码充分调用了ffmpeg中的函

  • vue-music关于Player播放器组件详解

    本文实例为大家分享了关于Player播放器组件的具体内容,供大家参考,具体内容如下 迷你播放器: 1.播放器组件会在各个页面的情况下会打开. 首先在vuex state.js 中定义全局的播放器状态 import {playMode} from 'common/js/config.js'; const state = { singer:{}, playing:false, //是否播放 fullScreen:false, //是否全屏 playList:[], //播放列表 sequenceLi

  • 详解Spring框架入门

    一.什么是Spring Spring框架是由于软件开发的复杂性而创建的.Spring使用的是基本的JavaBean来完成以前只可能由EJB完成的事情.然而,Spring的用途不仅仅限于服务器端的开发.从简单性.可测试性和松耦合性角度而言,绝大部分Java应用都可以从Spring中受益.Spring是一个轻量级控制反转(IoC)和面向切面(AOP)的容器框架. ◆目的:解决企业应用开发的复杂性 ◆功能:使用基本的JavaBean代替EJB,并提供了更多的企业应用功能 ◆范围:任何Java应用 二.

  • 一文快速详解前端框架 Vue 最强大的功能

    组件是 vue.js最强大的功能之一,而组件实例的作用域是相互独立的,这就意味着不同组件之间的数据无法相互引用.一般来说,组件可以有以下几种关系: 如上图所示,A 和 B.B 和 C.B 和 D 都是父子关系,C 和 D 是兄弟关系,A 和 C 是隔代关系(可能隔多代). 针对不同的使用场景,如何选择行之有效的通信方式?这是我们所要探讨的主题.本文总结了vue组件间通信的几种方式,如props. $emit/ $on.vuex. $parent / $children. $attrs/ $lis

  • Java Spring拦截器案例详解

    springmvc提供了拦截器,类似于过滤器,他将在我们的请求具体出来之前先做检查,有权决定接下来是否继续,对我们的请求进行加工. 拦截器,可以设计多个. 通过实现handlerunterceptor,这是个接口 定义了非常重要的三个方法: 后置处理 前置处理 完成处理 案例一: 通过拦截器实现方法耗时统计与警告 package com.xy.interceptors; import org.springframework.web.servlet.HandlerInterceptor; impo

  • SpringBoot面试突击之过滤器和拦截器区别详解

    目录 实现过滤器和拦截器 a) 实现过滤器 b) 实现拦截器 过滤器 VS 拦截器 1.出身不同 2.触发时机不同 3.实现不同 4.支持的项目类型不同 5.使用的场景不同 总结 实现过滤器和拦截器 首先,我们先来看一下二者在 Spring Boot 项目中的具体实现,这对后续理解二者的区别有很大的帮助. a) 实现过滤器 过滤器可以使用 Servlet 3.0 提供的 @WebFilter 注解,配置过滤的 URL 规则,然后再实现 Filter 接口,重写接口中的 doFilter 方法,具

  • AngularJS中的拦截器实例详解

    AngularJS中的拦截器实例详解 异步操作 有时候需要在拦截器中做一些异步操作.幸运的是, AngularJS 允许我们返回一个 promise 延后处理.它将会在请求拦截器中延迟发送请求或者在响应拦截器中推迟响应. 下面是项目中用到的代码. ZbtjxcApp.factory('myHttpInterceptor', ['$q', '$window','$location', function($q, $window,$location) { return { // 全局响应 'respo

  • Socket+JDBC+IO实现Java文件上传下载器DEMO详解

    该demo实现的功能有: 1.用户注册: 注册时输入两次密码,若两次输入不一致,则注册失败,需要重新输入.若用户名被注册过,则提示用户重新输入用户名: 2.用户登录: 需要验证数据库中是否有对应的用户名和密码,若密码输错三次,则终止用户的登录操作: 3.文件上传: 从本地上传文件到文件数据库中 4.文件下载: 从数据库中下载文件到本地 5.文件更新: 根据id可更新数据库中的文件名 6.文件删除: 根据id删除数据库中某一个文件 7.看数据库所有文件; 8.查看文件(根据用户名); 9.查看文件

  • python中函数总结之装饰器闭包详解

    1.前言 函数也是一个对象,从而可以增加属性,使用句点来表示属性. 如果内部函数的定义包含了在外部函数中定义的对象的引用(外部对象可以是在外部函数之外),那么内部函数被称之为闭包. 2.装饰器 装饰器就是包装原来的函数,从而在不需要修改原来代码的基础之上,可以做更多的事情. 装饰器语法如下: @deco2 @deco1 def func(arg1,arg2...): pass 这个表示了有两个装饰器的函数,那么表示的含义为:func = deco2(deco1(func)) 无参装饰器语法如下:

随机推荐