<HTML><BODY><span style="font-size: 18px;">Hello. </span><br><br><span style="font-size: 18px;">I studied <strong><em>hw-decode.c</em></strong> example and in this example a decoder is choosen based on an input video file (calling function <em><strong>av_find_best_stream(input_ctx, AVMEDIA_TYPE_VIDEO, -1, -1, &decoder, 0),</strong> </em>where </span><span style="font-size: 18px;"><em><strong>decoder </strong></em>is a local variable of type <em><strong>AVCodec*</strong></em>). I try to decode H264 videostream using hw-acceleration. To find a proper decoder I use <em><strong>avcodec_find_decoder(codec_id) </strong></em><em></em>function. Now for decoding h264 stream I use <em><strong>AV_CODEC_ID_H264 </strong></em>as the argument for this function<strong></strong><em><strong>. </strong></em>Is it correct? I don't see the difference in CPU and GPU utilization for hardware-accelerated decoding. Even for multiple streams.</span><br>-- <br>С уважением, Ахмед Анам.<br>Best regards, Akhmed Anam.</BODY></HTML>