Próbuję zrobić jakąś manipulację obrazem na iPhonie, opierając się na przykładzie z przykładu GLImageProcessing firmy Apple.Zapisywanie do tego czytania z pozaoperacyjnego FBO na iPhonie; działa na symulatorze, ale nie na urządzeniu?
Ostatecznie chciałbym załadować obraz do tekstury, wykonać jedną lub więcej operacji w kodzie przykładowym (odcień, nasycenie, jasność itp.), A następnie odczytać wynikowy obraz z powrotem do późniejszego przetwarzania/zapisywania. W przeważającej części nigdy nie musiałby dotykać ekranu, więc pomyślałem, że może to być droga do FBO.
Na początek skleiłem razem mały przykład, który tworzy poza ekranem FBO, rysuje do niego, a następnie odczytuje dane z powrotem jako obraz. Byłem podekscytowany, kiedy to działało idealnie w symulatorze, a potem było bumowane, gdy zdałem sobie sprawę, że mam czarny ekran na rzeczywistym urządzeniu.
Nota prawna: mój OpenGL jest na tyle duży, że miałem sporo krzywej uczenia się w OpenGL ES i nigdy nie byłem zbyt wielkim czarodziejem tekstur. Wiem, że urządzenie ma inną charakterystykę od symulatora w zakresie dostępu do bufora ramki (obowiązkowe poza ekranem FBO i zamiana na urządzeniu, bezpośredni dostęp do symulatora), ale nie byłem w stanie znaleźć tego, co robiłem źle , nawet po dość rozległych poszukiwaniach.
Wszelkie sugestie?
// set up the offscreen FBO sizes
int renderBufferWidth = 1280;
int renderBufferHeight = 720;
// now the FBO
GLuint fbo = 0;
glGenFramebuffersOES(1, &fbo);
glBindFramebufferOES(GL_FRAMEBUFFER_OES, fbo);
GLuint renderBuffer = 0;
glGenRenderbuffersOES(1, &renderBuffer);
glBindRenderbufferOES(GL_RENDERBUFFER_OES, renderBuffer);
glRenderbufferStorageOES(GL_RENDERBUFFER_OES,
GL_RGBA8_OES,
renderBufferWidth,
renderBufferHeight);
glFramebufferRenderbufferOES(GL_FRAMEBUFFER_OES,
GL_COLOR_ATTACHMENT0_OES,
GL_RENDERBUFFER_OES,
renderBuffer);
GLenum status = glCheckFramebufferStatusOES(GL_FRAMEBUFFER_OES);
if (status != GL_FRAMEBUFFER_COMPLETE_OES) {
NSLog(@"Problem with OpenGL framebuffer after specifying color render buffer: %x", status);
}
// throw in a test drawing
glClearColor(0.5f, 0.5f, 0.5f, 1.0f);
glClear(GL_COLOR_BUFFER_BIT);
static const GLfloat triangleVertices[] = {
-0.5f, -0.33f,
0.5f, -0.33f,
-0.5f, 0.33f
};
static const GLfloat triangleColors[] = {
1.0, 0.0, 0.0, 0.5,
0.0, 1.0, 0.0, 0.5,
0.0, 0.0, 1.0, 0.5
};
GLint backingWidth = 320;
GLint backingHeight = 480;
NSLog(@"setting up view/model matrices");
glMatrixMode(GL_PROJECTION);
glLoadIdentity();
glMatrixMode(GL_MODELVIEW);
glLoadIdentity();
glVertexPointer(2, GL_FLOAT, 0, triangleVertices);
glEnableClientState(GL_VERTEX_ARRAY);
glColorPointer(4, GL_FLOAT, 0, triangleColors);
glEnableClientState(GL_COLOR_ARRAY);
// draw the triangle
glDrawArrays(GL_TRIANGLE_STRIP, 0, 3);
// Extract the resulting rendering as an image
int samplesPerPixel = 4; // R, G, B and A
int rowBytes = samplesPerPixel * renderBufferWidth;
char* bufferData = (char*)malloc(rowBytes * renderBufferHeight);
if (bufferData == NULL) {
NSLog(@"Unable to allocate buffer for image extraction.");
}
// works on simulator with GL_BGRA, but not on device
glReadPixels(0, 0, renderBufferWidth,
renderBufferHeight,
GL_BGRA,
GL_UNSIGNED_BYTE, bufferData);
NSLog(@"reading pixels from framebuffer");
// Flip it vertically - images read from OpenGL buffers are upside-down
char* flippedBuffer = (char*)malloc(rowBytes * renderBufferHeight);
if (flippedBuffer == NULL) {
NSLog(@"Unable to allocate flipped buffer for corrected image.");
}
for (int i = 0 ; i < renderBufferHeight ; i++) {
bcopy(bufferData + i * rowBytes,
flippedBuffer + (renderBufferHeight - i - 1) * rowBytes,
rowBytes);
}
// unbind my FBO
glBindFramebufferOES(GL_FRAMEBUFFER_OES, 0);
// Output the image to a file
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
int bitsPerComponent = 8;
CGBitmapInfo bitmapInfo = kCGImageAlphaNoneSkipFirst | kCGBitmapByteOrder32Host;
CGContextRef contextRef = CGBitmapContextCreate(flippedBuffer,
renderBufferWidth,
renderBufferHeight,
bitsPerComponent,
rowBytes, colorSpace, bitmapInfo);
if (contextRef == nil) {
NSLog(@"Unable to create CGContextRef.");
}
CGImageRef imageRef = CGBitmapContextCreateImage(contextRef);
if (imageRef == nil) {
NSLog(@"Unable to create CGImageRef.");
} else {
if (savedImage == NO) {
UIImage *myImage = [UIImage imageWithCGImage:imageRef];
UIImageWriteToSavedPhotosAlbum(myImage, nil, nil, nil);
savedImage = YES;
}
}
Edit:
Odpowiedź, oczywiście, było to, że format bitmapy powinny być GL_RGBA nie GL_BGRA:
// works on simulator with GL_BGRA, but not on device
glReadPixels(0, 0, renderBufferWidth,
renderBufferHeight,
**GL_RGBA**,
GL_UNSIGNED_BYTE, bufferData);
zrobiłeś z tym postęp? Szukam czegoś podobnego: http://stackoverflow.com/questions/4412587/how-can-i-access-the-raw-pixel-data-of-an-opengles--2-screen- render-buffer – akaru
Andrew, czy twoja zmiana oznacza, że zmiana naprawiła twój problem? Jeśli tak, powinieneś dodać ją jako odpowiedź i zaakceptować. Ale co mnie najbardziej interesuje: czy zakończyłeś bibliotekę obróbki obrazu opartą na GLImageProcessing? – Palimondo