ios使用AVFoundation读取二维码的方法

二维码(Quick Response Code,简称QR Code)是由水平和垂直两个方向上的线条设计而成的一种二维条形码(barcode)。可以编码网址、电话号码、文本等内容,能够存储大量的数据信息。自iOS 7以来,二维码的生成和读取只需要使用Core Image框架和AVFoundation框架就能轻松实现。在这里,我们主要介绍二维码的读取。关于二维码的生成,可以查看使用CIFilter生成二维码文章中的介绍。

1 二维码的读取

读取二维码也就是通过扫描二维码图像以获取其所包含的数据信息。需要知道的是,任何条形码(包括二维码)的扫描都是基于视频采集(video capture),因此需要使用AVFoundation框架。

扫描二维码的过程即从摄像头捕获二维码图像(input)到解析出字符串内容(output)的过程,主要是通过AVCaptureSession对象来实现的。该对象用于协调从输入到输出的数据流,在执行过程中,需要先将输入和输出添加到AVCaptureSession对象中,然后通过发送startRunning或stopRunning消息来启动或停止数据流,最后通过AVCaptureVideoPreviewLayer对象将捕获的视频显示在屏幕上。在这里,输入对象通常是AVCaptureDeviceInput对象,主要是通过AVCaptureDevice的实例来获得,而输出对象通常是AVCaptureMetaDataOutput对象,它是读取二维码的核心部分,与AVCaptureMetadataOutputObjectsDelegate协议结合使用,可以捕获在输入设备中找到的任何元数据,并将其转换为可读的格式。下面是具体步骤:

1、导入AVFoundation框架。

#import <AVFoundation/AVFoundation.h>

2、创建一个AVCaptureSession对象。

AVCaptureSession *captureSession = [[AVCaptureSession alloc] init];

3、为AVCaptureSession对象添加输入和输出。

// add input
NSError *error;
AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
AVCaptureDeviceInput *deviceInput = [AVCaptureDeviceInput deviceInputWithDevice:device error:&error];

[captureSession addInput:deviceInput];

// add output
AVCaptureMetadataOutput *metadataOutput = [[AVCaptureMetadataOutput alloc] init];
[captureSession addOutput:metadataOutput];

4、配置AVCaptureMetaDataOutput对象,主要是设置代理和要处理的元数据对象类型。

dispatch_queue_t queue = dispatch_queue_create("MyQueue", NULL);
[metadataOutput setMetadataObjectsDelegate:self queue:queue];
[metadataOutput setMetadataObjectTypes:@[AVMetadataObjectTypeQRCode]];

需要注意的是,一定要在输出对象被添加到captureSession之后才能设置要处理的元数据类型,否则会出现下面的错误:

Terminating app due to uncaught exception 'NSInvalidArgumentException', reason: [AVCaptureMetadataOutput setMetadataObjectTypes:] Unsupported type found - use -availableMetadataObjectTypes'

5、创建并设置AVCaptureVideoPreviewLayer对象来显示捕获到的视频。

AVCaptureVideoPreviewLayer *previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:captureSession];
[previewLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill];
[previewLayer setFrame:self.view.bounds];
[self.view.layer addSublayer:previewLayer];

6、给AVCaptureSession对象发送startRunning消息以启动视频捕获。

[captureSession startRunning];

7、实现AVCaptureMetadataOutputObjectsDelegate的captureOutput:didOutputMetadataObjects:fromConnection:方法来处理捕获到的元数据,并将其读取出来。

- (void)captureOutput:(AVCaptureOutput *)output didOutputMetadataObjects:(NSArray<__kindof AVMetadataObject *> *)metadataObjects fromConnection:(AVCaptureConnection *)connection
{
 if (metadataObjects != nil && metadataObjects.count > 0) {
  AVMetadataMachineReadableCodeObject *metadataObject = metadataObjects.firstObject;
  if ([[metadataObject type] isEqualToString:AVMetadataObjectTypeQRCode]) {
   NSString *message = [metadataObject stringValue];
   [self.label performSelectorOnMainThread:@selector(setText:) withObject:message waitUntilDone:NO];
  }
 }
}

需要提醒的是,由于AVCaptureMetaDataOutput对象代理的设置,该代理方法会在setMetadataObjectsDelegate:queue:指定的队列上调用,如果需要更新用户界面,则必须在主线程中进行。

2 应用示例

下面,我们就做一个如下图所示的二维码阅读器:

其中主要实现的功能有:

  1. 通过摄像头实时扫描并读取二维码。
  2. 解析从相册中选择的二维码图片。

由于二维码的扫描是基于实时的视频捕获,因此相关的操作无法在模拟器上进行测试,也不能在没有相机的设备上进行测试。如果想要查看该应用,需要连接自己的iPhone设备来运行。

2.1 创建项目

打开Xcode,创建一个新的项目(File\New\Project...),选择iOS一栏下的Application中的Single View Application模版,然后点击Next,填写项目选项。在Product Name中填写QRCodeReaderDemo,选择Objective-C语言,点击Next,选择文件位置,并单击Create创建项目。

2.2 构建界面

打开Main.storyboard文件,在当前控制器中嵌入导航控制器,并添加标题QR Code Reader:

在视图控制器中添加ToolBar、Flexible Space Bar Button Item、Bar Button Item、View,布局如下:

其中,各元素及作用:

  1. ToolBar:添加在控制器视图的最底部,其Bar Item标题为Start,具有双重作用,用于启动和停止扫描。
  2. Flexible Space Bar Button Item:分别添加在Start的左右两侧,用于固定Start 的位置使其居中显示。
  3. Bar Button Item:添加在导航栏的右侧,标题为Album,用于从相册选择二维码图片进行解析。
  4. View:添加在控制器视图的中间,用于稍后设置扫描框。在这里使用自动布局固定宽高均为260,并且水平和垂直方向都是居中。

创建一个名为ScanView的新文件(File\New\File…),它是UIView的子类。然后选中视图控制器中间添加的View,将该视图的类名更改为ScanView:

打开辅助编辑器,将storyboard中的元素连接到代码中:

注意,需要在ViewController.m文件中导入ScanView.h文件。

2.3 添加代码

2.3.1 扫描二维码

首先在ViewController.h文件中导入AVFoundation框架:

#import <AVFoundation/AVFoundation.h>

切换到ViewController.m文件,添加AVCaptureMetadataOutputObjectsDelegate协议,并在接口部分添加下面的属性:

@interface ViewController ()<AVCaptureMetadataOutputObjectsDelegate>

// properties
@property (assign, nonatomic) BOOL isReading;
@property (strong, nonatomic) AVCaptureSession *captureSession;
@property (strong, nonatomic) AVCaptureVideoPreviewLayer *previewLayer;

在viewDidLoad方法中添加下面代码:

- (void)viewDidLoad
{
 [super viewDidLoad];

 self.isReading = NO;
 self.captureSession = nil;
}

然后在实现部分添加startScanning方法和stopScanning方法及相关代码:

- (void)startScanning
{
 self.captureSession = [[AVCaptureSession alloc] init];

 // add input
 NSError *error;
 AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
 AVCaptureDeviceInput *deviceInput = [[AVCaptureDeviceInput alloc] initWithDevice:device error:&error];
 if (!deviceInput) {
  NSLog(@"%@", [error localizedDescription]);
 }
 [self.captureSession addInput:deviceInput];

 // add output
 AVCaptureMetadataOutput *metadataOutput = [[AVCaptureMetadataOutput alloc] init];
 [self.captureSession addOutput:metadataOutput];

 // configure output
 dispatch_queue_t queue = dispatch_queue_create("MyQueue", NULL);
 [metadataOutput setMetadataObjectsDelegate:self queue:queue];
 [metadataOutput setMetadataObjectTypes:@[AVMetadataObjectTypeQRCode]];

 // configure previewLayer
 self.previewLayer = [[AVCaptureVideoPreviewLayer alloc] initWithSession:self.captureSession];
 [self.previewLayer setVideoGravity:AVLayerVideoGravityResizeAspectFill];
 [self.previewLayer setFrame:self.view.bounds];
 [self.view.layer addSublayer:self.previewLayer];

 // start scanning
 [self.captureSession startRunning];
}

- (void)stopScanning
{
 [self.captureSession stopRunning];
 self.captureSession = nil;

 [self.previewLayer removeFromSuperlayer];
}

找到startStopAction:并在该方法中调用上面的方法:

- (IBAction)startStopAction:(id)sender
{
 if (!self.isReading) {
  [self startScanning];
  [self.view bringSubviewToFront:self.toolBar];
  [self.startStopButton setTitle:@"Stop"];
 }
 else {
  [self stopScanning];
  [self.startStopButton setTitle:@"Start"];
 }

 self.isReading = !self.isReading;
}

至此,二维码扫描相关的代码已经完成,如果想要它能够正常运行的话,还需要在Info.plist文件中添加NSCameraUsageDescription键及相应描述以访问相机:

需要注意的是,现在只能扫描二维码但是还不能读取到二维码中的内容,不过我们可以连接设备,运行试下:

2.3.2 读取二维码

读取二维码需要实现AVCaptureMetadataOutputObjectsDelegate协议的captureOutput:didOutputMetadataObjects:fromConnection:方法:

- (void)captureOutput:(AVCaptureOutput *)output didOutputMetadataObjects:(NSArray<__kindof AVMetadataObject *> *)metadataObjects fromConnection:(AVCaptureConnection *)connection
{
 if (metadataObjects != nil && metadataObjects.count > 0) {
  AVMetadataMachineReadableCodeObject *metadataObject = metadataObjects.firstObject;
  if ([[metadataObject type] isEqualToString:AVMetadataObjectTypeQRCode]) {
   NSString *message = [metadataObject stringValue];
   [self performSelectorOnMainThread:@selector(displayMessage:) withObject:message waitUntilDone:NO];

   [self performSelectorOnMainThread:@selector(stopScanning) withObject:nil waitUntilDone:NO];
   [self.startStopButton performSelectorOnMainThread:@selector(setTitle:) withObject:@"Start" waitUntilDone:NO];
   self.isReading = NO;
  }
 }
}

- (void)displayMessage:(NSString *)message
{
 UIViewController *vc = [[UIViewController alloc] init];

 UITextView *textView = [[UITextView alloc] initWithFrame:vc.view.bounds];
 [textView setText:message];
 [textView setFont:[UIFont preferredFontForTextStyle:UIFontTextStyleBody]];
 textView.editable = NO;

 [vc.view addSubview:textView];

 [self.navigationController showViewController:vc sender:nil];
}

在这里我们将扫码结果显示在一个新的视图中,如果你运行程序的话应该可以看到扫描的二维码内容了。

另外,为了使我们的应用更逼真,可以在扫描到二维码信息时让它播放声音。这首先需要在项目中添加一个音频文件:

然后在接口部分添加一个AVAudioPlayer对象的属性:

@property (strong, nonatomic) AVAudioPlayer *audioPlayer;

在实现部分添加loadSound方法及代码,并在viewDidLoad中调用该方法:

- (void)loadSound
{
 NSString *soundFilePath = [[NSBundle mainBundle] pathForResource:@"beep" ofType:@"mp3"];
 NSURL *soundURL = [NSURL URLWithString:soundFilePath];
 NSError *error;

 self.audioPlayer = [[AVAudioPlayer alloc] initWithContentsOfURL:soundURL error:&error];

 if (error) {
  NSLog(@"Could not play sound file.");
  NSLog(@"%@", [error localizedDescription]);
 }
 else {
  [self.audioPlayer prepareToPlay];
 }
}

- (void)viewDidLoad
{
 ...
 [self loadSound];
}

最后,在captureOutput:didOutputMetadataObjects:fromConnection:方法中添加下面的代码来播放声音:

- (void)captureOutput:(AVCaptureOutput *)output didOutputMetadataObjects:(NSArray<__kindof AVMetadataObject *> *)metadataObjects fromConnection:(AVCaptureConnection *)connection
{
 if (metadataObjects != nil && metadataObjects.count > 0) {
  AVMetadataMachineReadableCodeObject *metadataObject = metadataObjects.firstObject;
  if ([[metadataObject type] isEqualToString:AVMetadataObjectTypeQRCode]) {
   ...
   self.isReading = NO;

   // play sound
   if (self.audioPlayer) {
    [self.audioPlayer play];
   }
  }
 }

2.3.3 设置扫描框

目前点击Start按钮,整个视图范围都可以扫描二维码。现在,我们需要设置一个扫描框,以限制只有扫描框区域内的二维码被读取。在这里,将扫描区域设置为storyboard中添加的视图,即scanView。

在实现部分找到startReading方法,添加下面的代码:

- (void)startScanning
{
 // configure previewLayer
 ...

 // set the scanning area
 [[NSNotificationCenter defaultCenter] addObserverForName:AVCaptureInputPortFormatDescriptionDidChangeNotification object:nil queue:[NSOperationQueue mainQueue] usingBlock:^(NSNotification * _Nonnull note) {
  metadataOutput.rectOfInterest = [self.previewLayer metadataOutputRectOfInterestForRect:self.scanView.frame];
 }];

 // start scanning
 ...
}

需要注意的是,rectOfInterest属性不能在设置 metadataOutput 时直接设置,而需要在AVCaptureInputPortFormatDescriptionDidChangeNotification通知里设置,否则 metadataOutputRectOfInterestForRect:方法会返回 (0, 0, 0, 0)。

为了让扫描框更真实的显示,我们需要自定义ScanView,为其绘制边框、四角以及扫描线。

首先打开ScanView.m文件,在实现部分重写initWithCoder:方法,为scanView设置透明的背景颜色:

- (instancetype)initWithCoder:(NSCoder *)aDecoder
{
 self = [super initWithCoder:aDecoder];

 if (self) {
  self.backgroundColor = [UIColor clearColor];
 }

 return self;
}

然后重写drawRect:方法,为scanView绘制边框和四角:

- (void)drawRect:(CGRect)rect
{
 CGContextRef context = UIGraphicsGetCurrentContext();

 // 绘制白色边框
 CGContextAddRect(context, self.bounds);
 CGContextSetStrokeColorWithColor(context, [UIColor whiteColor].CGColor);
 CGContextSetLineWidth(context, 2.0);
 CGContextStrokePath(context);

 // 绘制四角:
 CGContextSetStrokeColorWithColor(context, [UIColor greenColor].CGColor);
 CGContextSetLineWidth(context, 5.0);

 // 左上角:
 CGContextMoveToPoint(context, 0, 30);
 CGContextAddLineToPoint(context, 0, 0);
 CGContextAddLineToPoint(context, 30, 0);
 CGContextStrokePath(context);

 // 右上角:
 CGContextMoveToPoint(context, self.bounds.size.width - 30, 0);
 CGContextAddLineToPoint(context, self.bounds.size.width, 0);
 CGContextAddLineToPoint(context, self.bounds.size.width, 30);
 CGContextStrokePath(context);

 // 右下角:
 CGContextMoveToPoint(context, self.bounds.size.width, self.bounds.size.height - 30);
 CGContextAddLineToPoint(context, self.bounds.size.width, self.bounds.size.height);
 CGContextAddLineToPoint(context, self.bounds.size.width - 30, self.bounds.size.height);
 CGContextStrokePath(context);

 // 左下角:
 CGContextMoveToPoint(context, 30, self.bounds.size.height);
 CGContextAddLineToPoint(context, 0, self.bounds.size.height);
 CGContextAddLineToPoint(context, 0, self.bounds.size.height - 30);
 CGContextStrokePath(context);
}

如果希望在扫描过程中看到刚才绘制的扫描框,还需要切换到ViewController.m文件,在startStopAction:方法中添加下面的代码来显示扫描框:

- (IBAction)startStopAction:(id)sender
{
 if (!self.isReading) {
  ...
  [self.view bringSubviewToFront:self.toolBar]; // display toolBar
  [self.view bringSubviewToFront:self.scanView]; // display scanView
  ...
 }
 ...
}

现在运行,你会看到下面的效果:

接下来我们继续添加扫描线。

首先在ScanView.h文件的接口部分声明一个NSTimer对象的属性:

@property (nonatomic, strong) NSTimer *timer;

然后切换到ScanView.m文件,在实现部分添加loadScanLine方法及代码,并在initWithCoder:方法中调用:

- (void)loadScanLine
{
 self.timer = [NSTimer scheduledTimerWithTimeInterval:3.0 repeats:YES block:^(NSTimer * _Nonnull timer) {
  UIView *lineView = [[UIView alloc] initWithFrame:CGRectMake(0, 0, self.bounds.size.width, 1.0)];
  lineView.backgroundColor = [UIColor greenColor];
  [self addSubview:lineView];

  [UIView animateWithDuration:3.0 animations:^{
   lineView.frame = CGRectMake(0, self.bounds.size.height, self.bounds.size.width, 2.0);
  } completion:^(BOOL finished) {
   [lineView removeFromSuperview];
  }];
 }];
}

- (instancetype)initWithCoder:(NSCoder *)aDecoder
{
 ...

 if (self) {
  ...
  [self loadScanLine];
 }

 ...
}

然后切换到ViewController.m文件,在startStopAction:方法中添加下面代码以启用和暂停计时器:

- (IBAction)startStopAction:(id)sender
{
 if (!self.isReading) {
  ...
  [self.view bringSubviewToFront:self.scanView]; // display scanView
  self.scanView.timer.fireDate = [NSDate distantPast]; //start timer
  ...
 }
 else {
  [self stopScanning];
  self.scanView.timer.fireDate = [NSDate distantFuture]; //stop timer
  ...
 }

 ...
}

最后,再在viewWillAppear:的重写方法中添加下面代码:

- (void)viewWillAppear:(BOOL)animated
{
 [super viewWillAppear:animated];

 self.scanView.timer.fireDate = [NSDate distantFuture];
}

可以运行看下:

2.3.4 从图片解析二维码

从iOS 8开始,可以使用Core Image框架中的CIDetector解析图片中的二维码。在这个应用中,我们通过点击Album按钮,从相册选取二维码来解析。

在写代码之前,需要在Info.plist文件中添加NSPhotoLibraryAddUsageDescription键及相应描述以访问相册:

然后在ViewController.m文件中添加UIImagePickerControllerDelegate和UINavigationControllerDelegate协议:

代码如下:

@interface ViewController ()<AVCaptureMetadataOutputObjectsDelegate, UIImagePickerControllerDelegate, UINavigationControllerDelegate>

在实现部分找到readingFromAlbum:方法,添加下面代码以访问相册中的图片:

- (IBAction)readingFromAlbum:(id)sender
{
 UIImagePickerController *picker = [[UIImagePickerController alloc] init];
 picker.delegate = self;
 picker.sourceType = UIImagePickerControllerSourceTypePhotoLibrary;
 picker.allowsEditing = YES;

 [self presentViewController:picker animated:YES completion:nil];
}

然后实现UIImagePickerControllerDelegate的imagePickerController:didFinishPickingMediaWithInfo:方法以解析选取的二维码图片:

- (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary<NSString *,id> *)info
{
 [picker dismissViewControllerAnimated:YES completion:nil];

 UIImage *selectedImage = [info objectForKey:UIImagePickerControllerEditedImage];
 CIImage *ciImage = [[CIImage alloc] initWithImage:selectedImage];

 CIDetector *detector = [CIDetector detectorOfType:CIDetectorTypeQRCode context:nil options:@{CIDetectorAccuracy:CIDetectorAccuracyLow}];
 NSArray *features = [detector featuresInImage:ciImage];

 if (features.count > 0) {
  CIQRCodeFeature *feature = features.firstObject;
  NSString *message = feature.messageString;

  // display message
  [self displayMessage:message];

  // play sound
  if (self.audioPlayer) {
   [self.audioPlayer play];
  }
 }
}

现在可以运行试下从相册选取二维码来读取:

上图显示的是在模拟器中运行的结果。

至此,我们的二维码阅读器已经全部完成,如果需要完整代码,可以下载QRCodeReaderDemo查看。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持我们。

(0)

相关推荐

  • iOS中视频播放器的简单封装详解

    前言 如果仅仅是播放视频两者的使用都非常简单,但是相比MediaPlayer,AVPlayer对于视频播放的可控制性更强一些,可以通过自定义的一些控件来实现视频的播放暂停等等.因此这里使用AVPlayer的视频播放. 视频播放器布局 首先使用xib创建CLAVPlayerView继承UIView用来承载播放器,这样我们在外部使用的时候,直接在控制器View或者Cell上添加CLAVPlayerView即可,至于播放器播放或者暂停等操作交给CLAVPlayerView来管理.下面来看一下CLAVP

  • iOS开发之获取系统相册中的图片与视频教程(内带url转换)

    好些天没写点东西了,最近公司要做新项目,有点小忙.不想我的坚持就此中断,我把我前些天研究的东西拿出来给大家看看. 这次整理的是AssetsLibrary和PhotoKit的使用.本人处女座,有点强迫症,之前写的项目里用的是AssetsLibrary写的调取相册内的媒体文件,但是Xcode总是报警告错误,虽然能够编译并展示效果,但是十几个警告错误挂在那,心里总不是滋味,所以我就研究了一下AssetLibrary和PhotoKit. 在 iOS 8 出现之前,开发者只能使用 AssetsLibrar

  • iOS框架AVFoundation实现相机拍照、录制视频

    本文实例为大家分享了使用AVFoundation框架实现相机拍照.录制视频的具体代码,供大家参考,具体内容如下 这里是Demo 首先声明以下对象: #import "CustomeCameraViewController.h" #import <AVFoundation/AVFoundation.h> #import <AssetsLibrary/AssetsLibrary.h> @interface CustomeCameraViewController ()

  • 浅析iOS中视频播放的几种方案

    1.AVPlayer (1) 优缺点 优点:可以自定义 UI, 进行控制 缺点:单纯的播放,没有控制 UI(进度,暂停,播放等按钮),而且如果要显示播放界面, 需要借助AVPlayerLayer, 添加图层到需要展示的图层上 (2)实现远程视频播放 实现播放功能(只有声音) 1.导入框架 #import <AVFoundation/AVFoundation.h> 2.通过远程 URL 创建 AVPlayer 对象 NSURL *remoteURL = [NSURL URLWithString:

  • 详解iOS应用中播放本地视频以及选取本地音频的组件用法

    MPMoviePlayerControlle播放本地视频 MPMoviePlayerControlle与AVAudioPlayer有点类似,前者播放视频,后者播放音频,不过也有很大不同,MPMoviePlayerController 可以直接通过远程URL初始化,而AVAudioPlayer则不可以.不过大体上用起来感觉差不多.废话少说进入体验. 格式支持:MOV.MP4.M4V.与3GP等格式,还支持多种音频格式. 首先你得引入 MediaPlayer.framework.然后在使用到MPMo

  • iOS视频录制(或选择)压缩及上传功能(整理)

    最新做的一个功能涉及到了视频的录制.压缩及上传.根据网上诸多大神的经验,终于算是调通了,但也发现了一些问题,所以把我的经验分享一下. 首先,肯定是调用一下系统的相机或相册 代码很基本: //选择本地视频 - (void)choosevideo { UIImagePickerController *ipc = [[UIImagePickerController alloc] init]; ipc.sourceType = UIImagePickerControllerSourceTypePhoto

  • iOS实现视频和图片的上传思路

    关于iOS如何实现视频和图片的上传, 我们先理清下思路,然后小编根据思路一步一步给大家详解实现过程. 思路: #1. 如何获取图片? #2. 如何获取视频? #3. 如何把图片存到缓存路径中? #4. 如何把视频存到缓存路径中? #5. 如何上传? 接下来, 我们按照上面的思路一步一步实现 首先我们新建一个类, 用来储存每一个要上传的文件uploadModel.h #import <Foundation/Foundation.h> @interface uploadModel : NSObje

  • iOS中读取照片库及保存图片或视频到照片库的要点解析

    读取照片库PhotoLibrary iOS中如果我们只有一次读取一张图片或者一个视频(或拍一张照片/视频)的需求,那么我们用 UIImagePickerController 就可以搞定.但是很多时候我们需要一次性从PhotoLibrary读取多个照片或者视频,这时候我们就需要另辟蹊径了,好在apple为我们提供了相应的接口. 在开始coding之前我们想要认识几个类: ALAssetsLibrary:代表整个PhotoLibrary,我们可以生成一个它的实例对象,这个实例对象就相当于是照片库的句

  • iOS使用AVFoundation展示视频

    本文实例为大家分享了iOS使用AVFoundation展示视频的具体代码,供大家参考,具体内容如下 // // Capter2ViewController.m // IosTest // // Created by garin on 13-7-19. // Copyright (c) 2013年 garin. All rights reserved. // #import "Capter2ViewController.h" @interface Capter2ViewControlle

  • IOS实现视频动画效果的启动图

    先上效果图 实现思路 主要思路就是用一个控制器来作为播放视频的载体,然后在让这个控制器作为根视图,视频播放完成之后那就该干嘛干嘛了. 话不多说了,下面就放代码好了 先新建一个控制器AnimationViewController在控制器中新建一个属性moviePlayer,记得要先引入系统库<MediaPlayer/MediaPlayer.h> @property (nonatomic, strong) MPMoviePlayerController *moviePlayer; 设置movieP

随机推荐