Lines Matching defs:q2

64 					__m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11;
67 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
89 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
97 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10;
100 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
120 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
130 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9;
133 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
151 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
159 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8;
162 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
178 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
190 __m256i q0, q1, q2, q3, q4, q5, q6, q7;
193 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
207 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
215 __m256i q0, q1, q2, q3, q4, q5, q6;
218 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
230 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
240 __m256i q0, q1, q2, q3, q4, q5;
243 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
253 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
261 __m256i q0, q1, q2, q3, q4;
264 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
272 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
284 __m256i q0, q1, q2, q3;
287 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
293 mull = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 ))); summ = _mm256_add_epi32(summ, mull);
301 __m256i q0, q1, q2;
304 q2 = _mm256_set1_epi32(0xffff & qlp_coeff[2 ]);
308 summ = _mm256_madd_epi16(q2, _mm256_loadu_si256((const __m256i*)(data+i-3 )));
419 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11;
422 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
444 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
452 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10;
455 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
475 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
485 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9;
488 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
506 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
514 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8;
517 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
533 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
545 __m256i q0, q1, q2, q3, q4, q5, q6, q7;
548 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
562 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
570 __m256i q0, q1, q2, q3, q4, q5, q6;
573 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
585 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
595 __m256i q0, q1, q2, q3, q4, q5;
598 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
608 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
616 __m256i q0, q1, q2, q3, q4;
619 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
627 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
639 __m256i q0, q1, q2, q3;
642 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
648 mull = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3))); summ = _mm256_add_epi32(summ, mull);
656 __m256i q0, q1, q2;
659 q2 = _mm256_set1_epi32(qlp_coeff[2 ]);
663 summ = _mm256_mullo_epi32(q2, _mm256_loadu_si256((const __m256i*)(data+i-3)));
778 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11;
781 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
803 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
811 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10;
814 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
834 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
844 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9;
847 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
865 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
873 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8;
876 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
892 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
904 __m256i q0, q1, q2, q3, q4, q5, q6, q7;
907 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
921 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
929 __m256i q0, q1, q2, q3, q4, q5, q6;
932 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
944 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
954 __m256i q0, q1, q2, q3, q4, q5;
957 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
967 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
975 __m256i q0, q1, q2, q3, q4;
978 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
986 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
998 __m256i q0, q1, q2, q3;
1001 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
1007 mull = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 )))); summ = _mm256_add_epi64(summ, mull);
1015 __m256i q0, q1, q2;
1018 q2 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[2 ]));
1022 summ = _mm256_mul_epi32(q2, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-3 ))));