iPhone自从推出后就自带了截屏功能,简单而易用,所以应用就没什么截屏的需求了,不过有些时候我们还是会遇到这个需求。比如,我们开发了一个播放器,用openGL进行video render,此时直接截屏有可能有OSD叠加内容,所以希望能截完全是视频的帧,这时就需要应用自己来实现了。

从应用角度看,虽说都是截屏,但用不用openGL是不同的,因为openGL是直接写GPU frame buffer的,如果我们是直接用UIController来用做的界面:

  1. - (void)snapshotScreen
  2. {
  3. // check the retina screen
  4. if ([[UIScreen mainScreen] respondsToSelector:@selector(scale)]){
  5. UIGraphicsBeginImageContextWithOptions(self.view.window.bounds.size, NO, [UIScreen mainScreen].scale);
  6. } else {
  7. UIGraphicsBeginImageContext(self.view.window.bounds.size);
  8. }
  9. [self.view.window.layer renderInContext:UIGraphicsGetCurrentContext()];
  10. UIImage *image = UIGraphicsGetImageFromCurrentImageContext();
  11. UIGraphicsEndImageContext();
  12. NSData * data = UIImagePNGRepresentation(image);
  13. NSArray *path = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
  14. NSString *filename = [[path objectAtIndex:0] stringByAppendingPathComponent:@"foo.png"];
  15. [data writeToFile:filename atomically:YES];
  16. }

这个代码前面部分是检查是否是retina屏幕的,因为iPhone都是retina的屏幕,但iPod有非retina的屏幕;最后一部分是把image存到应用的document目录下。

如果要截openGL的内容,那么上面的代码就不能用了,思路是用openGL的API,glReadPixels去读出内容来。代码如下:

  1. - (void)getGLScreenShot {
  2. int       w = self.bounds.size.width;
  3. int       h = self.bounds.size.height;
  4. NSInteger myDataLength = w * h * 4;
  5. // allocate array and read pixels into it.
  6. GLubyte *buffer = (GLubyte *) malloc(myDataLength);
  7. glReadPixels(0, 0, w, h, GL_RGBA, GL_UNSIGNED_BYTE, buffer);
  8. // gl renders "upside down" so swap top to bottom into new array.
  9. // there's gotta be a better way, but this works.
  10. GLubyte *buffer2 = (GLubyte *) malloc(myDataLength);
  11. for(int y = 0; y < h; y++) {
  12. for(int x = 0; x <w * 4; x++) {
  13. buffer2[(h -1 - y) * w * 4 + x] = buffer[y * 44 * w + x];
  14. }
  15. }
  16. // make data provider with data.
  17. CGDataProviderRef provider = CGDataProviderCreateWithData(NULL, buffer2, myDataLength, NULL);
  18. // prep the ingredients
  19. int bitsPerComponent = 8;
  20. int bitsPerPixel = 32;
  21. int bytesPerRow = 44 * w;
  22. CGColorSpaceRef colorSpaceRef = CGColorSpaceCreateDeviceRGB();
  23. CGBitmapInfo bitmapInfo = kCGBitmapByteOrderDefault;
  24. CGColorRenderingIntent renderingIntent = kCGRenderingIntentDefault;
  25. // make the cgimage
  26. CGImageRef imageRef = CGImageCreate(w, h, bitsPerComponent, bitsPerPixel, bytesPerRow, colorSpaceRef, bitmapInfo, provider, NULL, NO, renderingIntent);
  27. // then make the uiimage from that
  28. UIImage *myImage = [UIImage imageWithCGImage:imageRef];
  29. UIImageWriteToSavedPhotosAlbum(myImage, self, @selector(GLImage:didFinishSavingWithError:contextInfo:), buffer2);
  30. CGImageRelease(imageRef);
  31. CGDataProviderRelease(provider);
  32. CGColorSpaceRelease(colorSpaceRef);
  33. free(buffer);
  34. }

这段代码是抓下了openGL渲染的一个GLView的所有内容,因为openGL读出的内容是颠倒的,所以习惯上需要颠倒一下,中间的两层for循环就是这个用途,当然,这个写法效率不高,不过一时也没找到什么高效的方法,就先用一下。

这段代码里面释放了buffer的内存,但没有释放buffer2的内存。因为图片的存储是异步的,所以是在存完图片之后,调用@selector(GLImage:didFinishSavingWithError:contextInfo:)这个方法进行清理,通过这个回调,在UI上也可以做一些限制,防止用户连续快速的截屏导致系统负载过重。

顺便说一下,这里把存下的图片按照习惯放到了图片库之中。

在iOS7之后,UIView有了UISnapshotting的category,这个真是大大的方便了我们截屏的实现,因为它既可以截屏普通的UIController,也可以截屏openGL的内容,

  1. // only support iOS7 or Above
  2. - (void)snapshotScreenWithGL
  3. {
  4. CGSize size = videoView.bounds.size;
  5. UIGraphicsBeginImageContextWithOptions(size, NO, [UIScreen mainScreen].scale);
  6. CGRect rec = CGRectMake(videoView.frame.origin.x, videoView.frame.origin.y, videoView.bounds.size.width, videoView.bounds.size.height);
  7. [self.view drawViewHierarchyInRect:rec afterScreenUpdates:YES];
  8. UIImage *image = UIGraphicsGetImageFromCurrentImageContext();
  9. UIGraphicsEndImageContext();
  10. NSData * data = UIImagePNGRepresentation(image);
  11. NSArray *path = NSSearchPathForDirectoriesInDomains(NSDocumentDirectory, NSUserDomainMask, YES);
  12. NSString *filename = [[path objectAtIndex:0] stringByAppendingPathComponent:@"foo.png"];
  13. [data writeToFile:filename atomically:YES];
  14. }

综合起来看,iOS7之后,苹果考虑到了用户这方面的需求,提供了API,可以比较方便的实现功能。iOS7之前,需要自己手动实现,根据是否使用了openGL代码有所不同。

iOS应用截屏的更多相关文章

  1. IOS上架截屏 屏幕快照

    IOS上架截屏,屏幕快照,4种屏幕尺寸,每种尺寸5张软件功能截图. 大小等于对应设备的屏幕的像素大小.使用模拟器,command +s截图就可以了虚拟机里的手机截屏就保存在mac 桌面上了.jpg,p ...

  2. iOS 模拟器截屏快捷键

    iOS 模拟器截屏快捷键: cmd+S

  3. IOS中截屏的实现,很简易的方法

    // 添加QuartzCore.framework库 #import <QuartzCore/QuartzCore.h> -(void) screenShot { // 截屏 UIGrap ...

  4. iOS手机截屏使用

    .截屏 保存 .data //登录成功进行截屏 //截取屏幕大小 UIGraphicsBeginImageContext([[UIScreen mainScreen]bounds].size); [s ...

  5. iOS实现截屏 并合适保存

     本文转载至:http://blog.csdn.net/zeng11088/article/details/8664510 分类: UIImageView2013-03-12 16:42 122人阅读 ...

  6. iOS 手机截屏

    百度地图自带截图功能,可以截取路线列表,保存到本地.可是对比发现截下来的图片并不是app中看到的那样,截图中头部加入了搜索的起点和终点,每段路程的详细站点都已展开,而且图片会根据路线的长短自动判断图片 ...

  7. iOS屏幕截屏

    #import "ViewController.h" @interface ViewController () @end @implementation ViewControlle ...

  8. ios 代码截屏模糊问题解决办法

    我们常用的截图方法如下所示: //尺寸是按照 UIGraphicsBeginImageContext(CGSizeMake(, )); //currentView 当前的view 创建一个基于位图的图 ...

  9. ios实现截屏(转)

    -(UIImage*) makeImage {  UIGraphicsBeginImageContext(self.view.bounds.size);  [self.view.layer rende ...

随机推荐

  1. apollo各协议支持的客户端

    apollo 源自 activemq,以快速.可靠著称,支持多协议:STOMP, AMQP, MQTT, Openwire, SSL, and WebSockets,下面就STOMP, AMQP, M ...

  2. 《Think in Java》(十四)类型信息

    简介 RTTI,RunTime Type Information,运行时类型信息.Java 在运行时识别对象和类的信息主要有两种方式:一种是"传统的"RTTI,它假定我们在编译时已 ...

  3. ItemsControl的应用

    ItemsControl是集合类控件的基类,如:ListBox.ComboBox.TreeView 所以,我们可以直接应用“ItemsControl”自定义我们“需要的”集合类型控件

  4. asp.net mvc Route路由映射.html后缀 404错误

    [HttpGet] [Route("item/{id:long:min(1)}.html")] 首先RouteConfig配置文件RegisterRoutes方法添加以下代码: r ...

  5. Python打包分发工具setuptools简介(转)

    作为Python标准的打包及分发工具,setuptools可以说相当地简单易用.它会随着Python一起安装在你的机器上.你只需写一个简短的setup.py安装文件,就可以将你的Python应用打包. ...

  6. 设计模式--模板方法模式C++实现

    模板方法模式C++实现 1定义 定义一个操作的算法的框架,而将一些步骤延迟到子类中.使得子类可以不改变一个算法的结构即可重定义该算法的某些特定步骤. 实现方案:将算法/逻辑框架放在抽象基类中,并定义好 ...

  7. [myeclipse]@override报错问题

    @Override是JDK5 就已经有了,但有个小小的Bug,就是不支持对接口的实现,认为这不是Override 而JDK6 修正了这个Bug,无论是对父类的方法覆盖还是对接口的实现都可以加上@Ove ...

  8. 13.LockSupport工具

    1. LockSupport简介 在之前介绍AQS的底层实现,已经在介绍java中的Lock时,比如ReentrantLock,ReentReadWriteLocks,已经在介绍线程间等待/通知机制使 ...

  9. opencv画图

    #coding=utf-8 import cv2 import numpy as np img = cv2.imread("2.png",cv2.IMREAD_COLOR) cv2 ...

  10. js中常用的字符串方法

    1,基础方法 charAt();返回该位置的字符,类似数组下标: substring();返回选中的字符,两个参数是下标. slice();参数是是一个正数,返回该数之后的剩余字符串:参数是负数,返回 ...