Lines Matching refs:__a

35 _mm256_abs_epi8(__m256i __a)
37 return (__m256i)__builtin_ia32_pabsb256((__v32qi)__a);
41 _mm256_abs_epi16(__m256i __a)
43 return (__m256i)__builtin_ia32_pabsw256((__v16hi)__a);
47 _mm256_abs_epi32(__m256i __a)
49 return (__m256i)__builtin_ia32_pabsd256((__v8si)__a);
53 _mm256_packs_epi16(__m256i __a, __m256i __b)
55 return (__m256i)__builtin_ia32_packsswb256((__v16hi)__a, (__v16hi)__b);
59 _mm256_packs_epi32(__m256i __a, __m256i __b)
61 return (__m256i)__builtin_ia32_packssdw256((__v8si)__a, (__v8si)__b);
65 _mm256_packus_epi16(__m256i __a, __m256i __b)
67 return (__m256i)__builtin_ia32_packuswb256((__v16hi)__a, (__v16hi)__b);
77 _mm256_add_epi8(__m256i __a, __m256i __b)
79 return (__m256i)((__v32qi)__a + (__v32qi)__b);
83 _mm256_add_epi16(__m256i __a, __m256i __b)
85 return (__m256i)((__v16hi)__a + (__v16hi)__b);
89 _mm256_add_epi32(__m256i __a, __m256i __b)
91 return (__m256i)((__v8si)__a + (__v8si)__b);
95 _mm256_add_epi64(__m256i __a, __m256i __b)
97 return __a + __b;
101 _mm256_adds_epi8(__m256i __a, __m256i __b)
103 return (__m256i)__builtin_ia32_paddsb256((__v32qi)__a, (__v32qi)__b);
107 _mm256_adds_epi16(__m256i __a, __m256i __b)
109 return (__m256i)__builtin_ia32_paddsw256((__v16hi)__a, (__v16hi)__b);
113 _mm256_adds_epu8(__m256i __a, __m256i __b)
115 return (__m256i)__builtin_ia32_paddusb256((__v32qi)__a, (__v32qi)__b);
119 _mm256_adds_epu16(__m256i __a, __m256i __b)
121 return (__m256i)__builtin_ia32_paddusw256((__v16hi)__a, (__v16hi)__b);
125 __m256i __a = (a); \
127 (__m256i)__builtin_ia32_palignr256((__v32qi)__a, (__v32qi)__b, (n)); })
130 _mm256_and_si256(__m256i __a, __m256i __b)
132 return __a & __b;
136 _mm256_andnot_si256(__m256i __a, __m256i __b)
138 return ~__a & __b;
142 _mm256_avg_epu8(__m256i __a, __m256i __b)
144 return (__m256i)__builtin_ia32_pavgb256((__v32qi)__a, (__v32qi)__b);
148 _mm256_avg_epu16(__m256i __a, __m256i __b)
150 return (__m256i)__builtin_ia32_pavgw256((__v16hi)__a, (__v16hi)__b);
182 _mm256_cmpeq_epi8(__m256i __a, __m256i __b)
184 return (__m256i)((__v32qi)__a == (__v32qi)__b);
188 _mm256_cmpeq_epi16(__m256i __a, __m256i __b)
190 return (__m256i)((__v16hi)__a == (__v16hi)__b);
194 _mm256_cmpeq_epi32(__m256i __a, __m256i __b)
196 return (__m256i)((__v8si)__a == (__v8si)__b);
200 _mm256_cmpeq_epi64(__m256i __a, __m256i __b)
202 return (__m256i)(__a == __b);
206 _mm256_cmpgt_epi8(__m256i __a, __m256i __b)
208 return (__m256i)((__v32qi)__a > (__v32qi)__b);
212 _mm256_cmpgt_epi16(__m256i __a, __m256i __b)
214 return (__m256i)((__v16hi)__a > (__v16hi)__b);
218 _mm256_cmpgt_epi32(__m256i __a, __m256i __b)
220 return (__m256i)((__v8si)__a > (__v8si)__b);
224 _mm256_cmpgt_epi64(__m256i __a, __m256i __b)
226 return (__m256i)(__a > __b);
230 _mm256_hadd_epi16(__m256i __a, __m256i __b)
232 return (__m256i)__builtin_ia32_phaddw256((__v16hi)__a, (__v16hi)__b);
236 _mm256_hadd_epi32(__m256i __a, __m256i __b)
238 return (__m256i)__builtin_ia32_phaddd256((__v8si)__a, (__v8si)__b);
242 _mm256_hadds_epi16(__m256i __a, __m256i __b)
244 return (__m256i)__builtin_ia32_phaddsw256((__v16hi)__a, (__v16hi)__b);
248 _mm256_hsub_epi16(__m256i __a, __m256i __b)
250 return (__m256i)__builtin_ia32_phsubw256((__v16hi)__a, (__v16hi)__b);
254 _mm256_hsub_epi32(__m256i __a, __m256i __b)
256 return (__m256i)__builtin_ia32_phsubd256((__v8si)__a, (__v8si)__b);
260 _mm256_hsubs_epi16(__m256i __a, __m256i __b)
262 return (__m256i)__builtin_ia32_phsubsw256((__v16hi)__a, (__v16hi)__b);
266 _mm256_maddubs_epi16(__m256i __a, __m256i __b)
268 return (__m256i)__builtin_ia32_pmaddubsw256((__v32qi)__a, (__v32qi)__b);
272 _mm256_madd_epi16(__m256i __a, __m256i __b)
274 return (__m256i)__builtin_ia32_pmaddwd256((__v16hi)__a, (__v16hi)__b);
278 _mm256_max_epi8(__m256i __a, __m256i __b)
280 return (__m256i)__builtin_ia32_pmaxsb256((__v32qi)__a, (__v32qi)__b);
284 _mm256_max_epi16(__m256i __a, __m256i __b)
286 return (__m256i)__builtin_ia32_pmaxsw256((__v16hi)__a, (__v16hi)__b);
290 _mm256_max_epi32(__m256i __a, __m256i __b)
292 return (__m256i)__builtin_ia32_pmaxsd256((__v8si)__a, (__v8si)__b);
296 _mm256_max_epu8(__m256i __a, __m256i __b)
298 return (__m256i)__builtin_ia32_pmaxub256((__v32qi)__a, (__v32qi)__b);
302 _mm256_max_epu16(__m256i __a, __m256i __b)
304 return (__m256i)__builtin_ia32_pmaxuw256((__v16hi)__a, (__v16hi)__b);
308 _mm256_max_epu32(__m256i __a, __m256i __b)
310 return (__m256i)__builtin_ia32_pmaxud256((__v8si)__a, (__v8si)__b);
314 _mm256_min_epi8(__m256i __a, __m256i __b)
316 return (__m256i)__builtin_ia32_pminsb256((__v32qi)__a, (__v32qi)__b);
320 _mm256_min_epi16(__m256i __a, __m256i __b)
322 return (__m256i)__builtin_ia32_pminsw256((__v16hi)__a, (__v16hi)__b);
326 _mm256_min_epi32(__m256i __a, __m256i __b)
328 return (__m256i)__builtin_ia32_pminsd256((__v8si)__a, (__v8si)__b);
332 _mm256_min_epu8(__m256i __a, __m256i __b)
334 return (__m256i)__builtin_ia32_pminub256((__v32qi)__a, (__v32qi)__b);
338 _mm256_min_epu16(__m256i __a, __m256i __b)
340 return (__m256i)__builtin_ia32_pminuw256 ((__v16hi)__a, (__v16hi)__b);
344 _mm256_min_epu32(__m256i __a, __m256i __b)
346 return (__m256i)__builtin_ia32_pminud256((__v8si)__a, (__v8si)__b);
350 _mm256_movemask_epi8(__m256i __a)
352 return __builtin_ia32_pmovmskb256((__v32qi)__a);
428 _mm256_mul_epi32(__m256i __a, __m256i __b)
430 return (__m256i)__builtin_ia32_pmuldq256((__v8si)__a, (__v8si)__b);
434 _mm256_mulhrs_epi16(__m256i __a, __m256i __b)
436 return (__m256i)__builtin_ia32_pmulhrsw256((__v16hi)__a, (__v16hi)__b);
440 _mm256_mulhi_epu16(__m256i __a, __m256i __b)
442 return (__m256i)__builtin_ia32_pmulhuw256((__v16hi)__a, (__v16hi)__b);
446 _mm256_mulhi_epi16(__m256i __a, __m256i __b)
448 return (__m256i)__builtin_ia32_pmulhw256((__v16hi)__a, (__v16hi)__b);
452 _mm256_mullo_epi16(__m256i __a, __m256i __b)
454 return (__m256i)((__v16hi)__a * (__v16hi)__b);
458 _mm256_mullo_epi32 (__m256i __a, __m256i __b)
460 return (__m256i)((__v8si)__a * (__v8si)__b);
464 _mm256_mul_epu32(__m256i __a, __m256i __b)
466 return __builtin_ia32_pmuludq256((__v8si)__a, (__v8si)__b);
470 _mm256_or_si256(__m256i __a, __m256i __b)
472 return __a | __b;
476 _mm256_sad_epu8(__m256i __a, __m256i __b)
478 return __builtin_ia32_psadbw256((__v32qi)__a, (__v32qi)__b);
482 _mm256_shuffle_epi8(__m256i __a, __m256i __b)
484 return (__m256i)__builtin_ia32_pshufb256((__v32qi)__a, (__v32qi)__b);
488 __m256i __a = (a); \
489 (__m256i)__builtin_shufflevector((__v8si)__a, (__v8si)_mm256_set1_epi32(0), \
498 __m256i __a = (a); \
499 (__m256i)__builtin_shufflevector((__v16hi)__a, (__v16hi)_mm256_set1_epi16(0), \
512 __m256i __a = (a); \
513 (__m256i)__builtin_shufflevector((__v16hi)__a, (__v16hi)_mm256_set1_epi16(0), \
524 _mm256_sign_epi8(__m256i __a, __m256i __b)
526 return (__m256i)__builtin_ia32_psignb256((__v32qi)__a, (__v32qi)__b);
530 _mm256_sign_epi16(__m256i __a, __m256i __b)
532 return (__m256i)__builtin_ia32_psignw256((__v16hi)__a, (__v16hi)__b);
536 _mm256_sign_epi32(__m256i __a, __m256i __b)
538 return (__m256i)__builtin_ia32_psignd256((__v8si)__a, (__v8si)__b);
542 __m256i __a = (a); \
543 (__m256i)__builtin_ia32_pslldqi256(__a, (count)*8); })
546 _mm256_slli_epi16(__m256i __a, int __count)
548 return (__m256i)__builtin_ia32_psllwi256((__v16hi)__a, __count);
552 _mm256_sll_epi16(__m256i __a, __m128i __count)
554 return (__m256i)__builtin_ia32_psllw256((__v16hi)__a, (__v8hi)__count);
558 _mm256_slli_epi32(__m256i __a, int __count)
560 return (__m256i)__builtin_ia32_pslldi256((__v8si)__a, __count);
564 _mm256_sll_epi32(__m256i __a, __m128i __count)
566 return (__m256i)__builtin_ia32_pslld256((__v8si)__a, (__v4si)__count);
570 _mm256_slli_epi64(__m256i __a, int __count)
572 return __builtin_ia32_psllqi256(__a, __count);
576 _mm256_sll_epi64(__m256i __a, __m128i __count)
578 return __builtin_ia32_psllq256(__a, __count);
582 _mm256_srai_epi16(__m256i __a, int __count)
584 return (__m256i)__builtin_ia32_psrawi256((__v16hi)__a, __count);
588 _mm256_sra_epi16(__m256i __a, __m128i __count)
590 return (__m256i)__builtin_ia32_psraw256((__v16hi)__a, (__v8hi)__count);
594 _mm256_srai_epi32(__m256i __a, int __count)
596 return (__m256i)__builtin_ia32_psradi256((__v8si)__a, __count);
600 _mm256_sra_epi32(__m256i __a, __m128i __count)
602 return (__m256i)__builtin_ia32_psrad256((__v8si)__a, (__v4si)__count);
606 __m256i __a = (a); \
607 (__m256i)__builtin_ia32_psrldqi256(__a, (count)*8); })
610 _mm256_srli_epi16(__m256i __a, int __count)
612 return (__m256i)__builtin_ia32_psrlwi256((__v16hi)__a, __count);
616 _mm256_srl_epi16(__m256i __a, __m128i __count)
618 return (__m256i)__builtin_ia32_psrlw256((__v16hi)__a, (__v8hi)__count);
622 _mm256_srli_epi32(__m256i __a, int __count)
624 return (__m256i)__builtin_ia32_psrldi256((__v8si)__a, __count);
628 _mm256_srl_epi32(__m256i __a, __m128i __count)
630 return (__m256i)__builtin_ia32_psrld256((__v8si)__a, (__v4si)__count);
634 _mm256_srli_epi64(__m256i __a, int __count)
636 return __builtin_ia32_psrlqi256(__a, __count);
640 _mm256_srl_epi64(__m256i __a, __m128i __count)
642 return __builtin_ia32_psrlq256(__a, __count);
646 _mm256_sub_epi8(__m256i __a, __m256i __b)
648 return (__m256i)((__v32qi)__a - (__v32qi)__b);
652 _mm256_sub_epi16(__m256i __a, __m256i __b)
654 return (__m256i)((__v16hi)__a - (__v16hi)__b);
658 _mm256_sub_epi32(__m256i __a, __m256i __b)
660 return (__m256i)((__v8si)__a - (__v8si)__b);
664 _mm256_sub_epi64(__m256i __a, __m256i __b)
666 return __a - __b;
670 _mm256_subs_epi8(__m256i __a, __m256i __b)
672 return (__m256i)__builtin_ia32_psubsb256((__v32qi)__a, (__v32qi)__b);
676 _mm256_subs_epi16(__m256i __a, __m256i __b)
678 return (__m256i)__builtin_ia32_psubsw256((__v16hi)__a, (__v16hi)__b);
682 _mm256_subs_epu8(__m256i __a, __m256i __b)
684 return (__m256i)__builtin_ia32_psubusb256((__v32qi)__a, (__v32qi)__b);
688 _mm256_subs_epu16(__m256i __a, __m256i __b)
690 return (__m256i)__builtin_ia32_psubusw256((__v16hi)__a, (__v16hi)__b);
694 _mm256_unpackhi_epi8(__m256i __a, __m256i __b)
696 return (__m256i)__builtin_shufflevector((__v32qi)__a, (__v32qi)__b, 8, 32+8, 9, 32+9, 10, 32+10, 11, 32+11, 12, 32+12, 13, 32+13, 14, 32+14, 15, 32+15, 24, 32+24, 25, 32+25, 26, 32+26, 27, 32+27, 28, 32+28, 29, 32+29, 30, 32+30, 31, 32+31);
700 _mm256_unpackhi_epi16(__m256i __a, __m256i __b)
702 return (__m256i)__builtin_shufflevector((__v16hi)__a, (__v16hi)__b, 4, 16+4, 5, 16+5, 6, 16+6, 7, 16+7, 12, 16+12, 13, 16+13, 14, 16+14, 15, 16+15);
706 _mm256_unpackhi_epi32(__m256i __a, __m256i __b)
708 return (__m256i)__builtin_shufflevector((__v8si)__a, (__v8si)__b, 2, 8+2, 3, 8+3, 6, 8+6, 7, 8+7);
712 _mm256_unpackhi_epi64(__m256i __a, __m256i __b)
714 return (__m256i)__builtin_shufflevector(__a, __b, 1, 4+1, 3, 4+3);
718 _mm256_unpacklo_epi8(__m256i __a, __m256i __b)
720 return (__m256i)__builtin_shufflevector((__v32qi)__a, (__v32qi)__b, 0, 32+0, 1, 32+1, 2, 32+2, 3, 32+3, 4, 32+4, 5, 32+5, 6, 32+6, 7, 32+7, 16, 32+16, 17, 32+17, 18, 32+18, 19, 32+19, 20, 32+20, 21, 32+21, 22, 32+22, 23, 32+23);
724 _mm256_unpacklo_epi16(__m256i __a, __m256i __b)
726 return (__m256i)__builtin_shufflevector((__v16hi)__a, (__v16hi)__b, 0, 16+0, 1, 16+1, 2, 16+2, 3, 16+3, 8, 16+8, 9, 16+9, 10, 16+10, 11, 16+11);
730 _mm256_unpacklo_epi32(__m256i __a, __m256i __b)
732 return (__m256i)__builtin_shufflevector((__v8si)__a, (__v8si)__b, 0, 8+0, 1, 8+1, 4, 8+4, 5, 8+5);
736 _mm256_unpacklo_epi64(__m256i __a, __m256i __b)
738 return (__m256i)__builtin_shufflevector(__a, __b, 0, 4+0, 2, 4+2);
742 _mm256_xor_si256(__m256i __a, __m256i __b)
744 return __a ^ __b;
849 _mm256_permutevar8x32_epi32(__m256i __a, __m256i __b)
851 return (__m256i)__builtin_ia32_permvarsi256((__v8si)__a, (__v8si)__b);
861 _mm256_permutevar8x32_ps(__m256 __a, __m256 __b)
863 return (__m256)__builtin_ia32_permvarsf256((__v8sf)__a, (__v8sf)__b);
1002 __m128d __a = (a); \
1006 (__m128d)__builtin_ia32_gatherd_pd((__v2df)__a, (const __v2df *)__m, \
1010 __m256d __a = (a); \
1014 (__m256d)__builtin_ia32_gatherd_pd256((__v4df)__a, (const __v4df *)__m, \
1018 __m128d __a = (a); \
1022 (__m128d)__builtin_ia32_gatherq_pd((__v2df)__a, (const __v2df *)__m, \
1026 __m256d __a = (a); \
1030 (__m256d)__builtin_ia32_gatherq_pd256((__v4df)__a, (const __v4df *)__m, \
1034 __m128 __a = (a); \
1038 (__m128)__builtin_ia32_gatherd_ps((__v4sf)__a, (const __v4sf *)__m, \
1042 __m256 __a = (a); \
1046 (__m256)__builtin_ia32_gatherd_ps256((__v8sf)__a, (const __v8sf *)__m, \
1050 __m128 __a = (a); \
1054 (__m128)__builtin_ia32_gatherq_ps((__v4sf)__a, (const __v4sf *)__m, \
1058 __m128 __a = (a); \
1062 (__m128)__builtin_ia32_gatherq_ps256((__v4sf)__a, (const __v4sf *)__m, \
1066 __m128i __a = (a); \
1070 (__m128i)__builtin_ia32_gatherd_d((__v4si)__a, (const __v4si *)__m, \
1074 __m256i __a = (a); \
1078 (__m256i)__builtin_ia32_gatherd_d256((__v8si)__a, (const __v8si *)__m, \
1082 __m128i __a = (a); \
1086 (__m128i)__builtin_ia32_gatherq_d((__v4si)__a, (const __v4si *)__m, \
1090 __m128i __a = (a); \
1094 (__m128i)__builtin_ia32_gatherq_d256((__v4si)__a, (const __v4si *)__m, \
1098 __m128i __a = (a); \
1102 (__m128i)__builtin_ia32_gatherd_q((__v2di)__a, (const __v2di *)__m, \
1106 __m256i __a = (a); \
1110 (__m256i)__builtin_ia32_gatherd_q256((__v4di)__a, (const __v4di *)__m, \
1114 __m128i __a = (a); \
1118 (__m128i)__builtin_ia32_gatherq_q((__v2di)__a, (const __v2di *)__m, \
1122 __m256i __a = (a); \
1126 (__m256i)__builtin_ia32_gatherq_q256((__v4di)__a, (const __v4di *)__m, \