<style type="text/css">p { margin-bottom: 0.08in; }</style>

<p style="margin-bottom: 0in;">Hi !</p>
<p style="margin-bottom: 0in;"><br>
</p>
<p style="margin-bottom: 0in;">I'am writing a program that needs a
RBGA video format to send data to an opengl alpha masked texture.
Thus, for convenience, I decided to encode my video frames in two
files.</p>
<p style="margin-bottom: 0in;"><br>
</p>
<p style="margin-bottom: 0in;">    -The fist contain RGB data with
maked pixel always the same color. Thus converting frames with a
MPEG4 video codec give good file size and doesn't waste data to
encode useless pixels.</p>
<p style="margin-bottom: 0in;">  
</p>
<p style="margin-bottom: 0in;">    -The second contain Alpha data
encoded into my own codec and file format.</p>
<p style="margin-bottom: 0in;"><br>
</p>
<p style="margin-bottom: 0in;">I try to use libavcodec to decode as
fast as possible the first file to send RGB data to my RGBA texture
buffer. But swscale don't give me an accelered YUV to RGBA colorspace
conversion, so décoding frames is too slow for me.</p>
<p style="margin-bottom: 0in;"><br>
</p>
<p style="margin-bottom: 0in;">So rather than converting the entire
YUV frame, I would like to convert only the updated pixels given by
the P frames. Does swsccale or libavcodec have a particular
optimization for this sort of inplace decoding ? (the swscale
destination buffer is not changed so it can be updated only by
applying  diff)</p>
<p style="margin-bottom: 0in;"><br>
</p>
<p style="margin-bottom: 0in;">Moreover, in my case the number of
updated pixels is often very low !</p>