Я создал представление с двумя изображениями рядом, чтобы сравнить их.
Левая сторона взята из ARFrame.capturedImage
.
Правая сторона взята из ARSCNView.snapshot()
.
Вы можете видеть, что левая сторона немного ярче, чем правая, хотя я направил камеру на белую стену.
Мне нужно, чтобы обе функции возвращали одинаковые значения пикселей для одного и того же объекта, чтобы я мог позже копировать определенные пиксели без явных контуров, появляющихся из-за разницы в яркости.
Возможно, это связано с тем, как я конвертирую CVPixelFrameBuffer
в UIImage
?