iOS는 카메라를 이용하여 환경 광감각 파라미터를 얻는다

3557 단어
자세한 내용은 다음과 같습니다.
#import "LightSensitiveViewController.h"

@import AVFoundation;

#import 

@interface LightSensitiveViewController ()< AVCaptureVideoDataOutputSampleBufferDelegate>

@property (nonatomic, strong) AVCaptureSession *session;

@end

@implementation LightSensitiveViewController

- (void)viewDidLoad {
    [super viewDidLoad];
    // Do any additional setup after loading the view.
    self.view.backgroundColor = [UIColor whiteColor];
    
    self.navigationItem.title = @"  ";
    [self lightSensitive];
}

- (void)didReceiveMemoryWarning {
    [super didReceiveMemoryWarning];
    // Dispose of any resources that can be recreated.
}

#pragma mark-   
- (void)lightSensitive {
    
    // 1.      
    AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
    
    // 2.     
    AVCaptureDeviceInput *input = [[AVCaptureDeviceInput alloc]initWithDevice:device error:nil];
    
    // 3.       
    AVCaptureVideoDataOutput *output = [[AVCaptureVideoDataOutput alloc] init];
    [output setSampleBufferDelegate:self queue:dispatch_get_main_queue()];
    

    // AVCaptureSession  
    self.session = [[AVCaptureSession alloc]init];
    //          
    [self.session setSessionPreset:AVCaptureSessionPresetHigh];
    //          
    if ([self.session canAddInput:input]) {
        [self.session addInput:input];
    }
    if ([self.session canAddOutput:output]) {
        [self.session addOutput:output];
    }
    
    // 9.    
    [self.session startRunning];
    
}

#pragma mark- AVCaptureVideoDataOutputSampleBufferDelegate   
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection {
    
    CFDictionaryRef metadataDict = CMCopyDictionaryOfAttachments(NULL,sampleBuffer, kCMAttachmentMode_ShouldPropagate);
    NSDictionary *metadata = [[NSMutableDictionary alloc] initWithDictionary:(__bridge NSDictionary*)metadataDict];
    CFRelease(metadataDict);
    NSDictionary *exifMetadata = [[metadata objectForKey:(NSString *)kCGImagePropertyExifDictionary] mutableCopy];
    float brightnessValue = [[exifMetadata objectForKey:(NSString *)kCGImagePropertyExifBrightnessValue] floatValue];
    
    NSLog(@"%f",brightnessValue);
    
    
    //   brightnessValue           
    AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithMediaType:AVMediaTypeVideo];
    BOOL result = [device hasTorch];//           
    if ((brightnessValue < 0) && result) {//      
        
        [device lockForConfiguration:nil];
        
        [device setTorchMode: AVCaptureTorchModeOn];// 
        
        [device unlockForConfiguration];
        
    }else if((brightnessValue > 0) && result) {//      
        
        [device lockForConfiguration:nil];
        [device setTorchMode: AVCaptureTorchModeOff];// 
        [device unlockForConfiguration];
        
    }
    
}

@end

참고 사항:
  • 먼저 AVFoundation 프레임워크와 ImageIO/ImageIO를 도입한다.h 선언 파일
  • AVcapture Video Data Output Sample Buffer Delegate 프로토콜
  • 준수
  • AVcaptureSession 대상은 속성으로 정의하고 대상이 AVcaptureSession 대상을 계속 인용하도록 확보한다.그렇지 않으면lightSensitive 방법에서 AVcapture Session 대상을 정의하고 초기화하면 AVcapture Session 대상이 미리 방출되고 [self.session startRunning];실효
  • AVcapture Video Data Output Sample Buffer Delegate를 실현하는 프록시 방법, 매개 변수brightnessValue는 주위 환경의 밝기 매개 변수입니다. 범위는 대략 - 5~12 사이이고 매개 변수의 수치가 클수록 환경이 밝습니다
  • 참고 자료 iOS 개발 읽기 환경 밝기

    좋은 웹페이지 즐겨찾기