Lines Matching refs:a2

6 float32x2_t test_vfma_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
8 return vfma_f32(a1, a2, a3);
9 // CHECK: llvm.fma.v2f32({{.*a2, .*a3, .*a1}})
13 float32x4_t test_vfmaq_f32(float32x4_t a1, float32x4_t a2, float32x4_t a3) {
15 return vfmaq_f32(a1, a2, a3);
16 // CHECK: llvm.fma.v4f32({{.*a2, .*a3, .*a1}})
20 float64x2_t test_vfmaq_f64(float64x2_t a1, float64x2_t a2, float64x2_t a3) {
22 return vfmaq_f64(a1, a2, a3);
23 // CHECK: llvm.fma.v2f64({{.*a2, .*a3, .*a1}})
27 float32x2_t test_vfma_lane_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
29 return vfma_lane_f32(a1, a2, a3, 1);
32 // CHECK: llvm.fma.v2f32(<2 x float> %a2, <2 x float> {{.*}}, <2 x float> %a1)
36 float32x4_t test_vfmaq_lane_f32(float32x4_t a1, float32x4_t a2, float32x2_t a3) {
38 return vfmaq_lane_f32(a1, a2, a3, 1);
41 // CHECK: llvm.fma.v4f32(<4 x float> %a2, <4 x float> {{.*}}, <4 x float> %a1)
45 float64x2_t test_vfmaq_lane_f64(float64x2_t a1, float64x2_t a2, float64x1_t a3) {
47 return vfmaq_lane_f64(a1, a2, a3, 0);
50 // CHECK: llvm.fma.v2f64(<2 x double> %a2, <2 x double> {{.*}}, <2 x double> %a1)
54 float32x2_t test_vfma_n_f32(float32x2_t a1, float32x2_t a2, float32_t a3) {
56 return vfma_n_f32(a1, a2, a3);
63 float32x4_t test_vfmaq_n_f32(float32x4_t a1, float32x4_t a2, float32_t a3) {
65 return vfmaq_n_f32(a1, a2, a3);
72 float64x2_t test_vfmaq_n_f64(float64x2_t a1, float64x2_t a2, float64_t a3) {
74 return vfmaq_n_f64(a1, a2, a3);
81 float32x2_t test_vfms_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
83 return vfms_f32(a1, a2, a3);
84 // CHECK: [[NEG:%.*]] = fsub <2 x float> {{.*}}, %a2
89 float32x4_t test_vfmsq_f32(float32x4_t a1, float32x4_t a2, float32x4_t a3) {
91 return vfmsq_f32(a1, a2, a3);
92 // CHECK: [[NEG:%.*]] = fsub <4 x float> {{.*}}, %a2
97 float64x2_t test_vfmsq_f64(float64x2_t a1, float64x2_t a2, float64x2_t a3) {
99 return vfmsq_f64(a1, a2, a3);
100 // CHECK: [[NEG:%.*]] = fsub <2 x double> {{.*}}, %a2
105 float32x2_t test_vfms_lane_f32(float32x2_t a1, float32x2_t a2, float32x2_t a3) {
107 return vfms_lane_f32(a1, a2, a3, 1);
116 float32x4_t test_vfmsq_lane_f32(float32x4_t a1, float32x4_t a2, float32x2_t a3) {
118 return vfmsq_lane_f32(a1, a2, a3, 1);
127 float64x2_t test_vfmsq_lane_f64(float64x2_t a1, float64x2_t a2, float64x1_t a3) {
129 return vfmsq_lane_f64(a1, a2, a3, 0);