iOS. Приемы программирования — страница 89 из 124

Постановка задачи

Требуется получить фотографии или видео непосредственно из библиотеки фотографий, не прибегая к использованию каких-либо встроенных компонентов графического пользовательского интерфейса.

Решение

Воспользуйтесь фреймворком Assets Library (Библиотека ресурсов). Выполните следующие шаги.

1. Выделите и инициализируйте объект типа ALAssetsLibrary.

2. Передайте два блоковых объекта методу экземпляра enumerateGroupsWithTypes: usingBlock: failureBlock:, относящемуся к объекту «Библиотека ресурсов». Первый блок получит все группы, ассоциированные с типом, который мы сообщили этому методу. Группы будут относиться к типу ALAssetsGroup. В случае неудачи этой операции во втором блоке будет возвращена ошибка.

3. Воспользуйтесь методом экземпляра enumerateAssetsUsingBlock: каждого группового объекта для перечисления ресурсов, имеющихся в каждой группе. Этот метод принимает единственный параметр — блок, получающий информацию по отдельно взятому ресурсу. Блок, передаваемый в качестве параметра, должен принимать три параметра, первый из которых должен относиться к типу ALAsset.

4. Получив объекты ALAsset, доступные в каждой группе, вы можете затем найти различные свойства каждого ресурса: его тип, доступные URL и т. д. Для получения этих свойств примените метод экземпляра valueForProperty:, относящийся к каждому ресурсу типа ALAsset. Возвращаемое значение этого метода в зависимости от типа передаваемого ему параметра может представлять собой NSDictionary, NSString или любой другой тип объекта. Вскоре мы рассмотрим общие свойства, которые могут быть получены от любого ресурса.

5. Вызовите метод экземпляра defaultRepresentation каждого объекта типа ALAsset, чтобы получить его объект представления (Representation Object) типа ALAssetRepresentation. Каждый ресурс из библиотеки ресурсов может иметь более одного представления. Например, фотография по умолчанию может иметь представление в формате PNG, но, кроме того, обладать и представлением JPEG. С помощью метода defaultRepresentation каждого ресурса типа ALAsset можно получить объект ALAssetRepresentation, а потом использовать его для получения различных представлений каждого ресурса (при наличии таких представлений).

6. Пользуйтесь методами size и методами экземпляра getBytes: fromOffset: length: error: каждого представления ресурса для загрузки данных о представлении ресурса. Затем можно записать прочитанные байты в объект NSData или выполнить любую другую операцию, необходимую в ходе работы приложения. Кроме того, при работе с фотографиями можно использовать методы экземпляра fullResolutionImage, fullScreenImage и CGImageWithOptions: каждого представления, чтобы получать изображения типа CGImageRef. Потом можно создать UIImage из CGImageRef с помощью метода класса imageWithCGImage:, относящегося к классу UIImage:


— (void)viewDidAppear:(BOOL)animated{

[super viewDidAppear: animated];


static BOOL beenHereBefore = NO;


if (beenHereBefore){

/* Отображаем элемент для выбора даты только после того, как вызывается

метод viewDidAppear:, что происходит при каждом отображении вида

нашего контроллера вида */

return;

} else {

beenHereBefore = YES;

}

self.assetsLibrary = [[ALAssetsLibrary alloc] init];


[self.assetsLibrary

enumerateGroupsWithTypes: ALAssetsGroupAll

usingBlock: ^(ALAssetsGroup *group, BOOL *stop) {

[group enumerateAssetsUsingBlock: ^(ALAsset *result,

NSUInteger index,

BOOL *stop) {


/* Получаем тип ресурса. */

NSString *assetType = [result valueForProperty: ALAssetPropertyType];


if ([assetType isEqualToString: ALAssetTypePhoto]){

NSLog(@"This is a photo asset");

}


else if ([assetType isEqualToString: ALAssetTypeVideo]){

NSLog(@"This is a video asset");

}


else if ([assetType isEqualToString: ALAssetTypeUnknown]){

NSLog(@"This is an unknown asset");

}


/* Получаем все URL для ресурса. */

NSDictionary *assetURLs =

[result valueForProperty: ALAssetPropertyURLs];


NSUInteger assetCounter = 0;

for (NSString *assetURLKey in assetURLs){

assetCounter++;

NSLog(@"Asset URL %lu = %@",

(unsigned long)assetCounter,

[assetURLs valueForKey: assetURLKey]);

}


/* Получаем объект представления ресурса. */

ALAssetRepresentation *assetRepresentation =

[result defaultRepresentation];


NSLog(@"Representation Size = %lld", [assetRepresentation size]);


}];

}

failureBlock: ^(NSError *error) {

NSLog(@"Failed to enumerate the asset groups.");

}];


}

Обсуждение

Библиотека ресурсов подразделяется на группы. В каждой группе содержатся ресурсы, а каждый ресурс имеет свойства, например URL (универсальные локаторы ресурсов) и объекты представления.

Все ресурсы всех типов можно получать из библиотеки ресурсов с помощью константы ALAssetsGroupAll. Она передается параметру enumerateGroupsWithTypes метода экземпляра enumerateGroupsWithTypes: usingBlock: failureBlock:, относящегося к объекту «Библиотека ресурсов». Вот список значений, которые можно передать этому параметру для перечисления различных групп ресурсов:

• ALAssetsGroupAlbum — группы, содержащие альбомы, которые были сохранены на устройстве iOS из iTunes;

• ALAssetsGroupFaces — группы, содержащие альбомы, в которых представлены фотографии лиц, сохраненные на устройстве iOS из iTunes;

• ALAssetsGroupSavedPhotos — группы, содержащие снимки, которые сохранены в библиотеке фотографий. На устройстве iOS эти ресурсы доступны также через приложение Photos (Фотографии);

• ALAssetsGroupAll — все группы, доступные в библиотеке ресурсов.

Теперь напишем простое приложение, которое будет получать данные о первом изображении, найденном в библиотеке ресурсов, создавать UIImageView с этим изображением, а потом добавлять это изображение в вид того контроллера вида, который отображается в настоящий момент. На данном примере мы научимся считывать содержимое ресурса, используя его представление.

Когда контроллер вида отображает свой вид, мы инициализируем объект библиотеки ресурсов и начнем перечисление ресурсов в этой библиотеке, пока не найдем первую фотографию. На данном этапе будем использовать представление этого ресурса (фотографии), чтобы отобразить фотографию в виде с изображением:


— (void)viewDidAppear:(BOOL)animated{

[super viewDidAppear: animated];


static BOOL beenHereBefore = NO;


if (beenHereBefore){

/* Отображаем элемент для выбора даты только после того, как вызывается

метод viewDidAppear:, что происходит при каждом отображении вида

нашего контроллера вида */

return;

} else {

beenHereBefore = YES;

}


self.assetsLibrary = [[ALAssetsLibrary alloc] init];


dispatch_queue_t dispatchQueue =

dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0);


dispatch_async(dispatchQueue, ^(void) {


[self.assetsLibrary

enumerateGroupsWithTypes: ALAssetsGroupAll

usingBlock: ^(ALAssetsGroup *group, BOOL *stop) {


[group enumerateAssetsUsingBlock: ^(ALAsset *result,

NSUInteger index,

BOOL *stop) {

__block BOOL foundThePhoto = NO;

if (foundThePhoto){

*stop = YES;

}


/* Получаем тип ресурса. */

NSString *assetType = [result

valueForProperty: ALAssetPropertyType];


if ([assetType isEqualToString: ALAssetTypePhoto]){

NSLog(@"This is a photo asset");


foundThePhoto = YES;

*stop = YES;


/* Получаем объект представления ресурса. */

ALAssetRepresentation *assetRepresentation =

[result defaultRepresentation];


/* Нам требуются данные о масштабе и ориентации, чтобы можно

было создать правильно расположенное и вымеренное изображение

UIImage из нашего объекта представления. */

CGFloat imageScale = [assetRepresentation scale];


UIImageOrientation imageOrientation =

(UIImageOrientation)[assetRepresentation orientation];


dispatch_async(dispatch_get_main_queue(), ^(void) {


CGImageRef imageReference =

[assetRepresentation fullResolutionImage];


/* Сейчас создаем изображение. */

UIImage *image =

[[UIImage alloc] initWithCGImage: imageReference

scale: imageScale

orientation: imageOrientation];

if (image!= nil){

self.imageView = [[UIImageView alloc]

initWithFrame: self.view.bounds];

self.imageView.contentMode = UIViewContentModeScaleAspectFit;

self.imageView.image = image;

[self.view addSubview: self.imageView];


} else {

NSLog(@"Failed to create the image.");

}

});

}

}];

}

failureBlock: ^(NSError *error) {

NSLog(@"Failed to enumerate the asset groups.");

}];

});

}


Мы перечисляем группы и каждый ресурс в группе. Потом находим первый ресурс-фотографию и получаем его представление. С помощью этого представления создаем UIImage, а уже из UIImage делаем UIImageView для демонстрации изображения в виде. Ничего сложного, правда?

Работа с видеофайлами строится немного иначе, поскольку в классе ALAssetRepresentation нет каких-либо методов, способных возвращать объект, заключающий в себе видеофайл. Поэтому нам потребуется считать содержимое видеоресурса в буфер и, возможно, сохранить его в каталоге Documents, где впоследствии к этому документу будет проще получить доступ. Разумеется, конкретные требования зависят от определенного приложения, но в приведенном далее примере кода мы пойдем дальше — найдем первый видеофайл в библиотеке ресурсов и сохраним его в каталоге Documents в приложении под названием Temp.MOV:


— (NSString *) documentFolderPath{

NSFileManager *fileManager = [[NSFileManager alloc] init];

NSURL *url = [fileManager URLForDirectory: NSDocumentDirectory

inDomain: NSUserDomainMask

appropriateForURL: nil

create: NO

error: nil]

return url.path;


}


— (void)viewDidAppear:(BOOL)animated{

[super viewDidAppear: animated];

static BOOL beenHereBefore = NO;

if (beenHereBefore){

/* Отображаем элемент для выбора даты только после того, как вызывается

метод viewDidAppear:, что происходит при каждом отображении вида

нашего контроллера вида */

return;

} else {

beenHereBefore = YES;

}

self.assetsLibrary = [[ALAssetsLibrary alloc] init];


dispatch_queue_t dispatchQueue =

dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0);


dispatch_async(dispatchQueue, ^(void) {


[self.assetsLibrary

enumerateGroupsWithTypes: ALAssetsGroupAll

usingBlock: ^(ALAssetsGroup *group, BOOL *stop) {


__block BOOL foundTheVideo = NO;

[group enumerateAssetsUsingBlock: ^(ALAsset *result,

NSUInteger index,

BOOL *stop) {


/* Получаем тип ресурса. */

NSString *assetType = [result

valueForProperty: ALAssetPropertyType];


if ([assetType isEqualToString: ALAssetTypeVideo]){

NSLog(@"This is a video asset");


foundTheVideo = YES;

*stop = YES;


/* Получаем объект представления ресурса. */

ALAssetRepresentation *assetRepresentation =

[result defaultRepresentation];


const NSUInteger BufferSize = 1024;

uint8_t buffer[BufferSize];

NSUInteger bytesRead = 0;

long long currentOffset = 0;

NSError *readingError = nil;


/* Создаем путь, по которому должно быть сохранено видео. */

NSString *videoPath = [documentsFolder

stringByAppendingPathComponent:@"Temp.MOV"];


NSFileManager *fileManager = [[NSFileManager alloc] init];


/* Создаем файл, если он еще не существует. */

if ([fileManager fileExistsAtPath: videoPath] == NO){

[fileManager createFileAtPath: videoPath

contents: nil

attributes: nil];

}


/* Этот дескриптор файла мы будем использовать для записи

медийных ресурсов на диск. */

NSFileHandle *fileHandle = [NSFileHandle

fileHandleForWritingAtPath: videoPath];

do{

/* Считываем столько байтов, сколько можем поместить в буфер. */

bytesRead = [assetRepresentation getBytes:(uint8_t *)&buffer

fromOffset: currentOffset

length: BufferSize

error:&readingError];


/* Если ничего считать не можем, то выходим из этого цикла. */

if (bytesRead == 0){

break;

}


/* Данные о смещении буфера должны быть актуальными. */

currentOffset += bytesRead;


/* Помещаем буфер в объект NSData. */

NSData *readData = [[NSData alloc]

initWithBytes:(const void *)buffer

length: bytesRead];


/* И записываем данные в файл. */

[fileHandle writeData: readData];


} while (bytesRead > 0);

NSLog(@"Finished reading and storing the \

video in the documents folder");

}

}];

if (foundTheVideo){

*stop = YES;

}

}

failureBlock: ^(NSError *error) {

NSLog(@"Failed to enumerate the asset groups.");

}];

});

}


Вот что происходит в данном коде.

1. Мы получаем стандартное представление первого видеоресурса, который находим в библиотеке ресурсов.

2. Создаем файл Temp.MOV в каталоге Documents нашего приложения для сохранения содержимого видеоресурса.

3. Создаем цикл, работающий до тех пор, пока в представлении ресурса еще остаются данные, которые необходимо считать. Метод экземпляра getBytes: fromOffset: length: error:, относящийся к объекту представления ресурса, считывает столько байтов, сколько может поместиться в буфер, и проделывает это столько раз, сколько необходимо, пока мы не достигнем конца данных представления.

4. После считывания данных в буфер мы заключаем их в объект типа NSData, используя для этого метод инициализации initWithBytes: length: класса NSData. Затем записываем эти данные в файл, созданный ранее, с помощью метода экземпляра writeData:, относящегося к классу NSFileHandle.

13.8. Редактирование видео на устройстве с операционной системой iOS