Lines Matching defs:q6

64 					__m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11;
71 q6 = _mm256_set1_epi32(0xffff & qlp_coeff[6 ]);
85 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull);
97 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10;
104 q6 = _mm256_set1_epi32(0xffff & qlp_coeff[6 ]);
116 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull);
130 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9;
137 q6 = _mm256_set1_epi32(0xffff & qlp_coeff[6 ]);
147 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull);
159 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8;
166 q6 = _mm256_set1_epi32(0xffff & qlp_coeff[6 ]);
174 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull);
190 __m256i q0, q1, q2, q3, q4, q5, q6, q7;
197 q6 = _mm256_set1_epi32(0xffff & qlp_coeff[6 ]);
203 mull = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 ))); summ = _mm256_add_epi32(summ, mull);
215 __m256i q0, q1, q2, q3, q4, q5, q6;
222 q6 = _mm256_set1_epi32(0xffff & qlp_coeff[6 ]);
226 summ = _mm256_madd_epi16(q6, _mm256_loadu_si256((const __m256i*)(data+i-7 )));
419 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11;
426 q6 = _mm256_set1_epi32(qlp_coeff[6 ]);
440 mull = _mm256_mullo_epi32(q6, _mm256_loadu_si256((const __m256i*)(data+i-7))); summ = _mm256_add_epi32(summ, mull);
452 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10;
459 q6 = _mm256_set1_epi32(qlp_coeff[6 ]);
471 mull = _mm256_mullo_epi32(q6, _mm256_loadu_si256((const __m256i*)(data+i-7))); summ = _mm256_add_epi32(summ, mull);
485 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9;
492 q6 = _mm256_set1_epi32(qlp_coeff[6 ]);
502 mull = _mm256_mullo_epi32(q6, _mm256_loadu_si256((const __m256i*)(data+i-7))); summ = _mm256_add_epi32(summ, mull);
514 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8;
521 q6 = _mm256_set1_epi32(qlp_coeff[6 ]);
529 mull = _mm256_mullo_epi32(q6, _mm256_loadu_si256((const __m256i*)(data+i-7))); summ = _mm256_add_epi32(summ, mull);
545 __m256i q0, q1, q2, q3, q4, q5, q6, q7;
552 q6 = _mm256_set1_epi32(qlp_coeff[6 ]);
558 mull = _mm256_mullo_epi32(q6, _mm256_loadu_si256((const __m256i*)(data+i-7))); summ = _mm256_add_epi32(summ, mull);
570 __m256i q0, q1, q2, q3, q4, q5, q6;
577 q6 = _mm256_set1_epi32(qlp_coeff[6 ]);
581 summ = _mm256_mullo_epi32(q6, _mm256_loadu_si256((const __m256i*)(data+i-7)));
778 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10, q11;
785 q6 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[6 ]));
799 mull = _mm256_mul_epi32(q6, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-7 )))); summ = _mm256_add_epi64(summ, mull);
811 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9, q10;
818 q6 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[6 ]));
830 mull = _mm256_mul_epi32(q6, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-7 )))); summ = _mm256_add_epi64(summ, mull);
844 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8, q9;
851 q6 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[6 ]));
861 mull = _mm256_mul_epi32(q6, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-7 )))); summ = _mm256_add_epi64(summ, mull);
873 __m256i q0, q1, q2, q3, q4, q5, q6, q7, q8;
880 q6 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[6 ]));
888 mull = _mm256_mul_epi32(q6, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-7 )))); summ = _mm256_add_epi64(summ, mull);
904 __m256i q0, q1, q2, q3, q4, q5, q6, q7;
911 q6 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[6 ]));
917 mull = _mm256_mul_epi32(q6, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-7 )))); summ = _mm256_add_epi64(summ, mull);
929 __m256i q0, q1, q2, q3, q4, q5, q6;
936 q6 = _mm256_cvtepu32_epi64(_mm_set1_epi32(qlp_coeff[6 ]));
940 summ = _mm256_mul_epi32(q6, _mm256_cvtepu32_epi64(_mm_loadu_si128((const __m128i*)(data+i-7 ))));