Searched refs:S32 (Results 1 - 25 of 113) sorted by relevance

12345

/external/libxaac/decoder/armv7/
H A Dixheaacd_overlap_add1.s51 VQNEG.S32 Q0, Q3
75 VQSHL.S32 Q15, Q15, Q11
80 VMULL.S32 Q13, D4, D14
82 VMULL.S32 Q13, D5, D15
85 VQADD.S32 Q14, Q14, Q10
86 VQSUB.S32 Q13, Q15, Q14
87 VQSHL.S32 Q13, Q13, #2
88 VSHR.S32 Q13, Q13, #16
95 VQSHL.S32 Q12, Q12, Q11
101 VMULL.S32 Q
[all...]
H A Dixheaacd_esbr_qmfsyn64_winadd.s51 VMLAL.S32 Q13, D0, D2
52 VMLAL.S32 Q14, D1, D3
57 VMLAL.S32 Q13, D6, D4
58 VMLAL.S32 Q14, D7, D5
63 VMLAL.S32 Q13, D10, D8
64 VMLAL.S32 Q14, D11, D9
69 VMLAL.S32 Q13, D12, D14
70 VMLAL.S32 Q14, D13, D15
75 VMLAL.S32 Q13, D16, D18
76 VMLAL.S32 Q1
[all...]
H A Dixheaacd_post_twiddle_overlap.s47 VMOV.S32 Q10, #0x00008000
141 VMULL.S32 Q0, D2, D0
149 VQSUB.S32 D8, D0, D8
152 VQSHL.S32 D8, D8, #2
154 VQADD.S32 D8, D8, D0
155 VSHR.S32 D8, D8, #16
235 VNEG.S32 Q15, Q15
264 VNEG.S32 Q1, Q1
269 VSHR.S32 Q12, Q12, #16
271 VSHR.S32 Q1
[all...]
H A Dixheaacd_mps_synt_post_twiddle.s36 VNEG.S32 D12, D2
38 VMULL.S32 Q2, D13, D12
39 VMULL.S32 Q3, D13, D3
40 VMULL.S32 Q4, D15, D2
41 VMULL.S32 Q5, D15, D3
48 VQADD.S32 D0, D8, D6
49 VQADD.S32 D1, D4, D10
H A Dixheaacd_mps_synt_pre_twiddle.s36 VNEG.S32 D12, D2
38 VMULL.S32 Q2, D0, D12
39 VMULL.S32 Q3, D0, D3
40 VMULL.S32 Q4, D1, D2
41 VMULL.S32 Q5, D1, D3
48 VQADD.S32 D0, D8, D6
49 VQADD.S32 D1, D4, D10
H A Dixheaacd_sbr_imdct_using_fft.s193 VADD.S32 q3, q9, q6
196 VSUB.S32 q7, q9, q6
199 VSUB.S32 q6, q4, q5
202 VADD.S32 q9, q4, q5
205 VADD.S32 q4, q8, q1
208 VSUB.S32 q5, q8, q1
211 VADD.S32 q8, q0, q2
214 VSUB.S32 q0, q0, q2
259 VADD.S32 q11, q7, q15
260 VSUB.S32 q
[all...]
H A Dixheaacd_esbr_fwd_modulation.s40 VSHR.S32 Q0, Q0, #4
41 VSHR.S32 Q1, Q1, #4
42 VSHR.S32 Q2, Q2, #4
43 VSHR.S32 Q3, Q3, #4
51 VQSUB.S32 Q4, Q0, Q2
52 VQSUB.S32 Q5, Q1, Q3
54 VADD.S32 Q6, Q0, Q2
55 VADD.S32 Q7, Q1, Q3
85 VMULL.S32 q2, d0, d2
86 VMULL.S32 q
[all...]
H A Dixheaacd_imdct_using_fft.s189 VADD.S32 q3, q9, q6
192 VSUB.S32 q7, q9, q6
195 VSUB.S32 q6, q4, q5
198 VADD.S32 q9, q4, q5
201 VADD.S32 q4, q8, q1
204 VSUB.S32 q5, q8, q1
207 VADD.S32 q8, q0, q2
210 VSUB.S32 q0, q0, q2
255 VADD.S32 q11, q7, q15
256 VSUB.S32 q
[all...]
H A Dia_xheaacd_mps_mulshift.s33 VQDMULL.S32 Q4, D0, D4
34 VQDMULL.S32 Q5, D2, D6
35 VQDMULL.S32 Q6, D1, D5
36 VQDMULL.S32 Q7, D3, D7
H A Dixheaacd_no_lap1.s41 VQNEG.S32 Q0, Q0
45 VQSHL.S32 Q15, Q0, Q1
46 VQADD.S32 Q14, Q15, Q2
47 VSHR.S32 Q13, Q14, #16
52 VQNEG.S32 Q3, Q3
59 VQSHL.S32 Q12, Q3, Q1
62 VQADD.S32 Q11, Q12, Q2
64 VQNEG.S32 Q0, Q0
66 VSHR.S32 Q10, Q11, #16
72 VQSHL.S32 Q1
[all...]
H A Dixheaacd_mps_synt_post_fft_twiddle.s43 VMULL.S32 Q4, D0, D4
44 VMULL.S32 Q5, D2, D6
45 VMULL.S32 Q6, D1, D5
46 VMULL.S32 Q7, D3, D7
53 VQADD.S32 D1, D8, D10
54 VQADD.S32 D0, D12, D14
H A Dixheaacd_calc_post_twid.s43 VMULL.S32 Q4, D4, D0
44 VMULL.S32 Q5, D6, D2
45 VMULL.S32 Q6, D6, D0
46 VMULL.S32 Q7, D4, D2
47 VMULL.S32 Q8, D5, D1
48 VMULL.S32 Q9, D7, D3
49 VMULL.S32 Q10, D7, D1
50 VMULL.S32 Q11, D5, D3
66 VNEG.S32 Q0, Q0
67 VNEG.S32 Q
[all...]
H A Dixheaacd_calc_pre_twid.s46 VNEG.S32 D5, D4
47 VNEG.S32 D7, D6
49 VMULL.S32 Q6, D0, D5
50 VMULL.S32 Q7, D2, D8
51 VMULL.S32 Q8, D0, D8
52 VMULL.S32 Q9, D2, D4
53 VMULL.S32 Q10, D1, D7
54 VMULL.S32 Q11, D9, D3
55 VMULL.S32 Q12, D1, D9
56 VMULL.S32 Q1
[all...]
H A Dixheaacd_overlap_add2.s66 VSHR.S32 Q13, Q13, #16
72 VQADD.S32 Q12, Q13, Q10
73 VQSHL.S32 Q12, Q12, Q11
88 VSHR.S32 Q9, Q9, #16
92 VSHR.S32 Q13, Q13, #16
105 VQADD.S32 Q8, Q9, Q10
107 VQADD.S32 Q12, Q13, Q10
108 VQSHL.S32 Q8, Q8, Q11
110 VQSHL.S32 Q12, Q12, Q11
128 VSHR.S32 Q
[all...]
H A Dia_xheaacd_mps_reoder_mulshift_acc.s64 VMULL.S32 Q12, D0, D8
65 VMULL.S32 Q10, D1, D9
66 VMULL.S32 Q11, D3, D11
67 VMULL.S32 Q13, D2, D10
69 VMULL.S32 Q0, D4, D12
70 VMULL.S32 Q4, D5, D13
71 VMULL.S32 Q5, D7, D15
72 VMULL.S32 Q1, D6, D14
108 VMULL.S32 Q12, D0, D8
109 VMULL.S32 Q1
[all...]
H A Dixheaacd_fft32x32_ld.s152 @VHADD.S32 q8, q0, q4 @b_data0_r=vhaddq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@
156 @VHSUB.S32 q9, q0, q4 @b_data4_r=vhsubq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@
163 @VHADD.S32 q0, q1, q5 @b_data0_i=vhaddq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@
167 @VHSUB.S32 q4, q1, q5 @b_data4_i=vhsubq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@
181 @VHADD.S32 q1, q2, q6 @b_data2_r=vhaddq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@
185 @VHSUB.S32 q5, q2, q6 @b_data6_r=vhsubq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@
189 @VHADD.S32 q2, q3, q7 @b_data2_i=vhaddq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@
193 @VHSUB.S32 q6, q3, q7 @b_data6_i=vhsubq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@
197 VADD.S32 q3, q9, q6 @c_data4_r=vaddq_s32(b_data4_r,b_data6_i)@
200 VSUB.S32 q
[all...]
H A Dixheaacd_calcmaxspectralline.s31 VMOV.S32 D6, #0x00000000
32 VMOV.S32 D7, #0x00000000
38 VABS.S32 Q0, Q0
41 VABS.S32 Q1, Q1
H A Dixheaacd_esbr_cos_sin_mod_loop1.s49 VMULL.S32 q2, d0, d2 @qsub 2nd
50 VMULL.S32 q3, d0, d3 @add 2nd
51 VMULL.S32 q4, d1, d2 @add 1st
52 VMULL.S32 q5, d1, d3 @qsub 1st
75 VMULL.S32 q2, d0, d2 @add 2nd
76 VMULL.S32 q3, d0, d3 @sub 2nd
77 VMULL.S32 q4, d1, d2 @sub 1st
78 VMULL.S32 q5, d1, d3 @add 1st
101 VMULL.S32 q2, d0, d2 @qsub 2nd
102 VMULL.S32 q
[all...]
H A Dixheaacd_esbr_cos_sin_mod_loop2.s70 VMULL.S32 q2, d0, d2 @qsub 2nd
71 VMULL.S32 q3, d0, d3 @add 2nd
72 VMULL.S32 q4, d1, d2 @add 1st
73 VMULL.S32 q5, d1, d3 @qsub 1st
87 VQNEG.S32 D12, D12
101 VMULL.S32 q2, d0, d2 @qsub 2nd
102 VMULL.S32 q3, d0, d3 @add 2nd
103 VMULL.S32 q4, d1, d2 @add 1st
104 VMULL.S32 q5, d1, d3 @qsub 1st
116 VQNEG.S32 D1
[all...]
H A Dixheaacd_dct3_32.s46 VSHR.S32 D0, D0, #7
61 VSHR.S32 Q0, Q0, #7
63 VSHR.S32 Q1, Q1, #7
68 VSHR.S32 Q3, Q3, #7
79 VSHR.S32 Q4, Q4, #7
90 VSHR.S32 Q0, Q0, #7
95 VSHR.S32 Q1, Q1, #7
101 VSHR.S32 Q14, Q14, #16
117 VSHR.S32 Q3, Q3, #7
123 VSHR.S32 Q
[all...]
H A Dixheaacd_mps_synt_out_calc.s30 VMULL.S32 Q4, D0, D4
31 VMULL.S32 Q5, D1, D6
32 VMULL.S32 Q6, D2, D5
33 VMULL.S32 Q7, D3, D7
H A Dixheaacd_tns_ar_filter_fixed.s142 VMLAL.S32 Q1, D10, D12
144 VMLAL.S32 Q1, D11, D13
180 VMLAL.S32 Q1, D10, D12
181 VMLAL.S32 Q1, D11, D13
182 VMLAL.S32 Q1, D22, D18
183 VMLAL.S32 Q1, D23, D19
222 VMLAL.S32 Q1, D10, D12
223 VMLAL.S32 Q1, D11, D13
224 VMLAL.S32 Q1, D22, D18
225 VMLAL.S32 Q
[all...]
/external/tensorflow/tensorflow/compiler/xla/service/gpu/
H A Dinstruction_fusion_test.cc34 ShapeUtil::MakeShape(S32, {}), HloOpcode::kExp, const0));
37 ShapeUtil::MakeShape(S32, {1}), exp1, {0}));
54 ShapeUtil::MakeShape(S32, {}), HloOpcode::kNegate, const0));
57 ShapeUtil::MakeShape(S32, {1}), negate1, {0}));
74 ShapeUtil::MakeShape(S32, {}), HloOpcode::kExp, const0));
76 HloInstruction::CreateReshape(ShapeUtil::MakeShape(S32, {}), exp1));
93 ShapeUtil::MakeShape(S32, {}), HloOpcode::kExp, const0));
95 HloInstruction::CreateTranspose(ShapeUtil::MakeShape(S32, {}), exp1, {}));
109 0, ShapeUtil::MakeShape(S32, {1, 1}), "0"));
111 ShapeUtil::MakeShape(S32, {
[all...]
/external/tensorflow/tensorflow/compiler/xla/
H A Dshape_util_test.cc228 {ShapeUtil::MakeShape(PRED, {4, 5}), ShapeUtil::MakeShape(S32, {3, 2})});
301 ShapeUtil::MakeTupleShape({ShapeUtil::MakeShape(S32, {})})));
305 {ShapeUtil::MakeShape(S32, {}), ShapeUtil::MakeShape(S32, {})})));
307 {ShapeUtil::MakeShape(S32, {}), ShapeUtil::MakeTupleShape({})})));
309 {ShapeUtil::MakeTupleShape({}), ShapeUtil::MakeShape(S32, {})})));
315 EXPECT_EQ(1, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {})));
316 EXPECT_EQ(0, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {0})));
317 EXPECT_EQ(1, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {1})));
318 EXPECT_EQ(1, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {
[all...]
/external/compiler-rt/test/asan/TestCases/Linux/
H A Dscariness_score_test.cc45 struct S32 { struct
105 S32 gm[100];
141 case 5: HeapBuferOverflow<S32>(4, Write); break;
145 case 9: HeapUseAfterFree<S32>(0, Write); break;
150 case 14: StackUseAfterReturn<S32>(0, Write); break;

Completed in 348 milliseconds

12345