Lines Matching refs:__a

51 _mm256_add_pd(__m256d __a, __m256d __b)
53 return __a+__b;
57 _mm256_add_ps(__m256 __a, __m256 __b)
59 return __a+__b;
63 _mm256_sub_pd(__m256d __a, __m256d __b)
65 return __a-__b;
69 _mm256_sub_ps(__m256 __a, __m256 __b)
71 return __a-__b;
75 _mm256_addsub_pd(__m256d __a, __m256d __b)
77 return (__m256d)__builtin_ia32_addsubpd256((__v4df)__a, (__v4df)__b);
81 _mm256_addsub_ps(__m256 __a, __m256 __b)
83 return (__m256)__builtin_ia32_addsubps256((__v8sf)__a, (__v8sf)__b);
87 _mm256_div_pd(__m256d __a, __m256d __b)
89 return __a / __b;
93 _mm256_div_ps(__m256 __a, __m256 __b)
95 return __a / __b;
99 _mm256_max_pd(__m256d __a, __m256d __b)
101 return (__m256d)__builtin_ia32_maxpd256((__v4df)__a, (__v4df)__b);
105 _mm256_max_ps(__m256 __a, __m256 __b)
107 return (__m256)__builtin_ia32_maxps256((__v8sf)__a, (__v8sf)__b);
111 _mm256_min_pd(__m256d __a, __m256d __b)
113 return (__m256d)__builtin_ia32_minpd256((__v4df)__a, (__v4df)__b);
117 _mm256_min_ps(__m256 __a, __m256 __b)
119 return (__m256)__builtin_ia32_minps256((__v8sf)__a, (__v8sf)__b);
123 _mm256_mul_pd(__m256d __a, __m256d __b)
125 return __a * __b;
129 _mm256_mul_ps(__m256 __a, __m256 __b)
131 return __a * __b;
135 _mm256_sqrt_pd(__m256d __a)
137 return (__m256d)__builtin_ia32_sqrtpd256((__v4df)__a);
141 _mm256_sqrt_ps(__m256 __a)
143 return (__m256)__builtin_ia32_sqrtps256((__v8sf)__a);
147 _mm256_rsqrt_ps(__m256 __a)
149 return (__m256)__builtin_ia32_rsqrtps256((__v8sf)__a);
153 _mm256_rcp_ps(__m256 __a)
155 return (__m256)__builtin_ia32_rcpps256((__v8sf)__a);
171 _mm256_and_pd(__m256d __a, __m256d __b)
173 return (__m256d)((__v4di)__a & (__v4di)__b);
177 _mm256_and_ps(__m256 __a, __m256 __b)
179 return (__m256)((__v8si)__a & (__v8si)__b);
183 _mm256_andnot_pd(__m256d __a, __m256d __b)
185 return (__m256d)(~(__v4di)__a & (__v4di)__b);
189 _mm256_andnot_ps(__m256 __a, __m256 __b)
191 return (__m256)(~(__v8si)__a & (__v8si)__b);
195 _mm256_or_pd(__m256d __a, __m256d __b)
197 return (__m256d)((__v4di)__a | (__v4di)__b);
201 _mm256_or_ps(__m256 __a, __m256 __b)
203 return (__m256)((__v8si)__a | (__v8si)__b);
207 _mm256_xor_pd(__m256d __a, __m256d __b)
209 return (__m256d)((__v4di)__a ^ (__v4di)__b);
213 _mm256_xor_ps(__m256 __a, __m256 __b)
215 return (__m256)((__v8si)__a ^ (__v8si)__b);
220 _mm256_hadd_pd(__m256d __a, __m256d __b)
222 return (__m256d)__builtin_ia32_haddpd256((__v4df)__a, (__v4df)__b);
226 _mm256_hadd_ps(__m256 __a, __m256 __b)
228 return (__m256)__builtin_ia32_haddps256((__v8sf)__a, (__v8sf)__b);
232 _mm256_hsub_pd(__m256d __a, __m256d __b)
234 return (__m256d)__builtin_ia32_hsubpd256((__v4df)__a, (__v4df)__b);
238 _mm256_hsub_ps(__m256 __a, __m256 __b)
240 return (__m256)__builtin_ia32_hsubps256((__v8sf)__a, (__v8sf)__b);
245 _mm_permutevar_pd(__m128d __a, __m128i __c)
247 return (__m128d)__builtin_ia32_vpermilvarpd((__v2df)__a, (__v2di)__c);
251 _mm256_permutevar_pd(__m256d __a, __m256i __c)
253 return (__m256d)__builtin_ia32_vpermilvarpd256((__v4df)__a, (__v4di)__c);
257 _mm_permutevar_ps(__m128 __a, __m128i __c)
259 return (__m128)__builtin_ia32_vpermilvarps((__v4sf)__a, (__v4si)__c);
263 _mm256_permutevar_ps(__m256 __a, __m256i __c)
265 return (__m256)__builtin_ia32_vpermilvarps256((__v8sf)__a, (__v8si)__c);
330 _mm256_blendv_pd(__m256d __a, __m256d __b, __m256d __c)
333 (__v4df)__a, (__v4df)__b, (__v4df)__c);
337 _mm256_blendv_ps(__m256 __a, __m256 __b, __m256 __c)
340 (__v8sf)__a, (__v8sf)__b, (__v8sf)__c);
428 _mm256_extract_epi32(__m256i __a, const int __imm)
430 __v8si __b = (__v8si)__a;
435 _mm256_extract_epi16(__m256i __a, const int __imm)
437 __v16hi __b = (__v16hi)__a;
442 _mm256_extract_epi8(__m256i __a, const int __imm)
444 __v32qi __b = (__v32qi)__a;
450 _mm256_extract_epi64(__m256i __a, const int __imm)
452 __v4di __b = (__v4di)__a;
458 _mm256_insert_epi32(__m256i __a, int __b, int const __imm)
460 __v8si __c = (__v8si)__a;
466 _mm256_insert_epi16(__m256i __a, int __b, int const __imm)
468 __v16hi __c = (__v16hi)__a;
474 _mm256_insert_epi8(__m256i __a, int __b, int const __imm)
476 __v32qi __c = (__v32qi)__a;
483 _mm256_insert_epi64(__m256i __a, long long __b, int const __imm)
485 __v4di __c = (__v4di)__a;
493 _mm256_cvtepi32_pd(__m128i __a)
495 return (__m256d)__builtin_ia32_cvtdq2pd256((__v4si) __a);
499 _mm256_cvtepi32_ps(__m256i __a)
501 return (__m256)__builtin_ia32_cvtdq2ps256((__v8si) __a);
505 _mm256_cvtpd_ps(__m256d __a)
507 return (__m128)__builtin_ia32_cvtpd2ps256((__v4df) __a);
511 _mm256_cvtps_epi32(__m256 __a)
513 return (__m256i)__builtin_ia32_cvtps2dq256((__v8sf) __a);
517 _mm256_cvtps_pd(__m128 __a)
519 return (__m256d)__builtin_ia32_cvtps2pd256((__v4sf) __a);
523 _mm256_cvttpd_epi32(__m256d __a)
525 return (__m128i)__builtin_ia32_cvttpd2dq256((__v4df) __a);
529 _mm256_cvtpd_epi32(__m256d __a)
531 return (__m128i)__builtin_ia32_cvtpd2dq256((__v4df) __a);
535 _mm256_cvttps_epi32(__m256 __a)
537 return (__m256i)__builtin_ia32_cvttps2dq256((__v8sf) __a);
542 _mm256_movehdup_ps(__m256 __a)
544 return __builtin_shufflevector(__a, __a, 1, 1, 3, 3, 5, 5, 7, 7);
548 _mm256_moveldup_ps(__m256 __a)
550 return __builtin_shufflevector(__a, __a, 0, 0, 2, 2, 4, 4, 6, 6);
554 _mm256_movedup_pd(__m256d __a)
556 return __builtin_shufflevector(__a, __a, 0, 0, 2, 2);
561 _mm256_unpackhi_pd(__m256d __a, __m256d __b)
563 return __builtin_shufflevector(__a, __b, 1, 5, 1+2, 5+2);
567 _mm256_unpacklo_pd(__m256d __a, __m256d __b)
569 return __builtin_shufflevector(__a, __b, 0, 4, 0+2, 4+2);
573 _mm256_unpackhi_ps(__m256 __a, __m256 __b)
575 return __builtin_shufflevector(__a, __b, 2, 10, 2+1, 10+1, 6, 14, 6+1, 14+1);
579 _mm256_unpacklo_ps(__m256 __a, __m256 __b)
581 return __builtin_shufflevector(__a, __b, 0, 8, 0+1, 8+1, 4, 12, 4+1, 12+1);
586 _mm_testz_pd(__m128d __a, __m128d __b)
588 return __builtin_ia32_vtestzpd((__v2df)__a, (__v2df)__b);
592 _mm_testc_pd(__m128d __a, __m128d __b)
594 return __builtin_ia32_vtestcpd((__v2df)__a, (__v2df)__b);
598 _mm_testnzc_pd(__m128d __a, __m128d __b)
600 return __builtin_ia32_vtestnzcpd((__v2df)__a, (__v2df)__b);
604 _mm_testz_ps(__m128 __a, __m128 __b)
606 return __builtin_ia32_vtestzps((__v4sf)__a, (__v4sf)__b);
610 _mm_testc_ps(__m128 __a, __m128 __b)
612 return __builtin_ia32_vtestcps((__v4sf)__a, (__v4sf)__b);
616 _mm_testnzc_ps(__m128 __a, __m128 __b)
618 return __builtin_ia32_vtestnzcps((__v4sf)__a, (__v4sf)__b);
622 _mm256_testz_pd(__m256d __a, __m256d __b)
624 return __builtin_ia32_vtestzpd256((__v4df)__a, (__v4df)__b);
628 _mm256_testc_pd(__m256d __a, __m256d __b)
630 return __builtin_ia32_vtestcpd256((__v4df)__a, (__v4df)__b);
634 _mm256_testnzc_pd(__m256d __a, __m256d __b)
636 return __builtin_ia32_vtestnzcpd256((__v4df)__a, (__v4df)__b);
640 _mm256_testz_ps(__m256 __a, __m256 __b)
642 return __builtin_ia32_vtestzps256((__v8sf)__a, (__v8sf)__b);
646 _mm256_testc_ps(__m256 __a, __m256 __b)
648 return __builtin_ia32_vtestcps256((__v8sf)__a, (__v8sf)__b);
652 _mm256_testnzc_ps(__m256 __a, __m256 __b)
654 return __builtin_ia32_vtestnzcps256((__v8sf)__a, (__v8sf)__b);
658 _mm256_testz_si256(__m256i __a, __m256i __b)
660 return __builtin_ia32_ptestz256((__v4di)__a, (__v4di)__b);
664 _mm256_testc_si256(__m256i __a, __m256i __b)
666 return __builtin_ia32_ptestc256((__v4di)__a, (__v4di)__b);
670 _mm256_testnzc_si256(__m256i __a, __m256i __b)
672 return __builtin_ia32_ptestnzc256((__v4di)__a, (__v4di)__b);
677 _mm256_movemask_pd(__m256d __a)
679 return __builtin_ia32_movmskpd256((__v4df)__a);
683 _mm256_movemask_ps(__m256 __a)
685 return __builtin_ia32_movmskps256((__v8sf)__a);
703 _mm_broadcast_ss(float const *__a)
705 float __f = *__a;
710 _mm256_broadcast_sd(double const *__a)
712 double __d = *__a;
717 _mm256_broadcast_ss(float const *__a)
719 float __f = *__a;
724 _mm256_broadcast_pd(__m128d const *__a)
726 return (__m256d)__builtin_ia32_vbroadcastf128_pd256(__a);
730 _mm256_broadcast_ps(__m128 const *__a)
732 return (__m256)__builtin_ia32_vbroadcastf128_ps256(__a);
789 _mm256_store_pd(double *__p, __m256d __a)
791 *(__m256d *)__p = __a;
795 _mm256_store_ps(float *__p, __m256 __a)
797 *(__m256 *)__p = __a;
801 _mm256_storeu_pd(double *__p, __m256d __a)
803 __builtin_ia32_storeupd256(__p, (__v4df)__a);
807 _mm256_storeu_ps(float *__p, __m256 __a)
809 __builtin_ia32_storeups256(__p, (__v8sf)__a);
813 _mm256_store_si256(__m256i *__p, __m256i __a)
815 *__p = __a;
819 _mm256_storeu_si256(__m256i *__p, __m256i __a)
821 __builtin_ia32_storedqu256((char *)__p, (__v32qi)__a);
852 _mm256_maskstore_ps(float *__p, __m256i __m, __m256 __a)
854 __builtin_ia32_maskstoreps256((__v8sf *)__p, (__v8si)__m, (__v8sf)__a);
858 _mm_maskstore_pd(double *__p, __m128i __m, __m128d __a)
860 __builtin_ia32_maskstorepd((__v2df *)__p, (__v2di)__m, (__v2df)__a);
864 _mm256_maskstore_pd(double *__p, __m256i __m, __m256d __a)
866 __builtin_ia32_maskstorepd256((__v4df *)__p, (__v4di)__m, (__v4df)__a);
870 _mm_maskstore_ps(float *__p, __m128i __m, __m128 __a)
872 __builtin_ia32_maskstoreps((__v4sf *)__p, (__v4si)__m, (__v4sf)__a);
877 _mm256_stream_si256(__m256i *__a, __m256i __b)
879 __builtin_ia32_movntdq256((__v4di *)__a, (__v4di)__b);
883 _mm256_stream_pd(double *__a, __m256d __b)
885 __builtin_ia32_movntpd256(__a, (__v4df)__b);
889 _mm256_stream_ps(float *__p, __m256 __a)
891 __builtin_ia32_movntps256(__p, (__v8sf)__a);
914 _mm256_set_pd(double __a, double __b, double __c, double __d)
916 return (__m256d){ __d, __c, __b, __a };
920 _mm256_set_ps(float __a, float __b, float __c, float __d,
923 return (__m256){ __h, __g, __f, __e, __d, __c, __b, __a };
962 _mm256_set_epi64x(long long __a, long long __b, long long __c, long long __d)
964 return (__m256i)(__v4di){ __d, __c, __b, __a };
969 _mm256_setr_pd(double __a, double __b, double __c, double __d)
971 return (__m256d){ __a, __b, __c, __d };
975 _mm256_setr_ps(float __a, float __b, float __c, float __d,
978 return (__m256){ __a, __b, __c, __d, __e, __f, __g, __h };
1016 _mm256_setr_epi64x(long long __a, long long __b, long long __c, long long __d)
1018 return (__m256i)(__v4di){ __a, __b, __c, __d };
1082 _mm256_castpd_ps(__m256d __a)
1084 return (__m256)__a;
1088 _mm256_castpd_si256(__m256d __a)
1090 return (__m256i)__a;
1094 _mm256_castps_pd(__m256 __a)
1096 return (__m256d)__a;
1100 _mm256_castps_si256(__m256 __a)
1102 return (__m256i)__a;
1106 _mm256_castsi256_ps(__m256i __a)
1108 return (__m256)__a;
1112 _mm256_castsi256_pd(__m256i __a)
1114 return (__m256d)__a;
1118 _mm256_castpd256_pd128(__m256d __a)
1120 return __builtin_shufflevector(__a, __a, 0, 1);
1124 _mm256_castps256_ps128(__m256 __a)
1126 return __builtin_shufflevector(__a, __a, 0, 1, 2, 3);
1130 _mm256_castsi256_si128(__m256i __a)
1132 return __builtin_shufflevector(__a, __a, 0, 1);
1136 _mm256_castpd128_pd256(__m128d __a)
1138 return __builtin_shufflevector(__a, __a, 0, 1, -1, -1);
1142 _mm256_castps128_ps256(__m128 __a)
1144 return __builtin_shufflevector(__a, __a, 0, 1, 2, 3, -1, -1, -1, -1);
1148 _mm256_castsi128_si256(__m128i __a)
1150 return __builtin_shufflevector(__a, __a, 0, 1, -1, -1);
1254 _mm256_storeu2_m128(float *__addr_hi, float *__addr_lo, __m256 __a)
1258 __v128 = _mm256_castps256_ps128(__a);
1260 __v128 = _mm256_extractf128_ps(__a, 1);
1265 _mm256_storeu2_m128d(double *__addr_hi, double *__addr_lo, __m256d __a)
1269 __v128 = _mm256_castpd256_pd128(__a);
1271 __v128 = _mm256_extractf128_pd(__a, 1);
1276 _mm256_storeu2_m128i(__m128i *__addr_hi, __m128i *__addr_lo, __m256i __a)
1280 __v128 = _mm256_castsi256_si128(__a);
1282 __v128 = _mm256_extractf128_si256(__a, 1);