/external/libxaac/decoder/armv7/ |
H A D | ixheaacd_overlap_add1.s | 51 VQNEG.S32 Q0, Q3 75 VQSHL.S32 Q15, Q15, Q11 80 VMULL.S32 Q13, D4, D14 82 VMULL.S32 Q13, D5, D15 85 VQADD.S32 Q14, Q14, Q10 86 VQSUB.S32 Q13, Q15, Q14 87 VQSHL.S32 Q13, Q13, #2 88 VSHR.S32 Q13, Q13, #16 95 VQSHL.S32 Q12, Q12, Q11 101 VMULL.S32 Q [all...] |
H A D | ixheaacd_esbr_qmfsyn64_winadd.s | 51 VMLAL.S32 Q13, D0, D2 52 VMLAL.S32 Q14, D1, D3 57 VMLAL.S32 Q13, D6, D4 58 VMLAL.S32 Q14, D7, D5 63 VMLAL.S32 Q13, D10, D8 64 VMLAL.S32 Q14, D11, D9 69 VMLAL.S32 Q13, D12, D14 70 VMLAL.S32 Q14, D13, D15 75 VMLAL.S32 Q13, D16, D18 76 VMLAL.S32 Q1 [all...] |
H A D | ixheaacd_post_twiddle_overlap.s | 47 VMOV.S32 Q10, #0x00008000 141 VMULL.S32 Q0, D2, D0 149 VQSUB.S32 D8, D0, D8 152 VQSHL.S32 D8, D8, #2 154 VQADD.S32 D8, D8, D0 155 VSHR.S32 D8, D8, #16 235 VNEG.S32 Q15, Q15 264 VNEG.S32 Q1, Q1 269 VSHR.S32 Q12, Q12, #16 271 VSHR.S32 Q1 [all...] |
H A D | ixheaacd_mps_synt_post_twiddle.s | 36 VNEG.S32 D12, D2 38 VMULL.S32 Q2, D13, D12 39 VMULL.S32 Q3, D13, D3 40 VMULL.S32 Q4, D15, D2 41 VMULL.S32 Q5, D15, D3 48 VQADD.S32 D0, D8, D6 49 VQADD.S32 D1, D4, D10
|
H A D | ixheaacd_mps_synt_pre_twiddle.s | 36 VNEG.S32 D12, D2 38 VMULL.S32 Q2, D0, D12 39 VMULL.S32 Q3, D0, D3 40 VMULL.S32 Q4, D1, D2 41 VMULL.S32 Q5, D1, D3 48 VQADD.S32 D0, D8, D6 49 VQADD.S32 D1, D4, D10
|
H A D | ixheaacd_sbr_imdct_using_fft.s | 193 VADD.S32 q3, q9, q6 196 VSUB.S32 q7, q9, q6 199 VSUB.S32 q6, q4, q5 202 VADD.S32 q9, q4, q5 205 VADD.S32 q4, q8, q1 208 VSUB.S32 q5, q8, q1 211 VADD.S32 q8, q0, q2 214 VSUB.S32 q0, q0, q2 259 VADD.S32 q11, q7, q15 260 VSUB.S32 q [all...] |
H A D | ixheaacd_esbr_fwd_modulation.s | 40 VSHR.S32 Q0, Q0, #4 41 VSHR.S32 Q1, Q1, #4 42 VSHR.S32 Q2, Q2, #4 43 VSHR.S32 Q3, Q3, #4 51 VQSUB.S32 Q4, Q0, Q2 52 VQSUB.S32 Q5, Q1, Q3 54 VADD.S32 Q6, Q0, Q2 55 VADD.S32 Q7, Q1, Q3 85 VMULL.S32 q2, d0, d2 86 VMULL.S32 q [all...] |
H A D | ixheaacd_imdct_using_fft.s | 189 VADD.S32 q3, q9, q6 192 VSUB.S32 q7, q9, q6 195 VSUB.S32 q6, q4, q5 198 VADD.S32 q9, q4, q5 201 VADD.S32 q4, q8, q1 204 VSUB.S32 q5, q8, q1 207 VADD.S32 q8, q0, q2 210 VSUB.S32 q0, q0, q2 255 VADD.S32 q11, q7, q15 256 VSUB.S32 q [all...] |
H A D | ia_xheaacd_mps_mulshift.s | 33 VQDMULL.S32 Q4, D0, D4 34 VQDMULL.S32 Q5, D2, D6 35 VQDMULL.S32 Q6, D1, D5 36 VQDMULL.S32 Q7, D3, D7
|
H A D | ixheaacd_no_lap1.s | 41 VQNEG.S32 Q0, Q0 45 VQSHL.S32 Q15, Q0, Q1 46 VQADD.S32 Q14, Q15, Q2 47 VSHR.S32 Q13, Q14, #16 52 VQNEG.S32 Q3, Q3 59 VQSHL.S32 Q12, Q3, Q1 62 VQADD.S32 Q11, Q12, Q2 64 VQNEG.S32 Q0, Q0 66 VSHR.S32 Q10, Q11, #16 72 VQSHL.S32 Q1 [all...] |
H A D | ixheaacd_mps_synt_post_fft_twiddle.s | 43 VMULL.S32 Q4, D0, D4 44 VMULL.S32 Q5, D2, D6 45 VMULL.S32 Q6, D1, D5 46 VMULL.S32 Q7, D3, D7 53 VQADD.S32 D1, D8, D10 54 VQADD.S32 D0, D12, D14
|
H A D | ixheaacd_calc_post_twid.s | 43 VMULL.S32 Q4, D4, D0 44 VMULL.S32 Q5, D6, D2 45 VMULL.S32 Q6, D6, D0 46 VMULL.S32 Q7, D4, D2 47 VMULL.S32 Q8, D5, D1 48 VMULL.S32 Q9, D7, D3 49 VMULL.S32 Q10, D7, D1 50 VMULL.S32 Q11, D5, D3 66 VNEG.S32 Q0, Q0 67 VNEG.S32 Q [all...] |
H A D | ixheaacd_calc_pre_twid.s | 46 VNEG.S32 D5, D4 47 VNEG.S32 D7, D6 49 VMULL.S32 Q6, D0, D5 50 VMULL.S32 Q7, D2, D8 51 VMULL.S32 Q8, D0, D8 52 VMULL.S32 Q9, D2, D4 53 VMULL.S32 Q10, D1, D7 54 VMULL.S32 Q11, D9, D3 55 VMULL.S32 Q12, D1, D9 56 VMULL.S32 Q1 [all...] |
H A D | ixheaacd_overlap_add2.s | 66 VSHR.S32 Q13, Q13, #16 72 VQADD.S32 Q12, Q13, Q10 73 VQSHL.S32 Q12, Q12, Q11 88 VSHR.S32 Q9, Q9, #16 92 VSHR.S32 Q13, Q13, #16 105 VQADD.S32 Q8, Q9, Q10 107 VQADD.S32 Q12, Q13, Q10 108 VQSHL.S32 Q8, Q8, Q11 110 VQSHL.S32 Q12, Q12, Q11 128 VSHR.S32 Q [all...] |
H A D | ia_xheaacd_mps_reoder_mulshift_acc.s | 64 VMULL.S32 Q12, D0, D8 65 VMULL.S32 Q10, D1, D9 66 VMULL.S32 Q11, D3, D11 67 VMULL.S32 Q13, D2, D10 69 VMULL.S32 Q0, D4, D12 70 VMULL.S32 Q4, D5, D13 71 VMULL.S32 Q5, D7, D15 72 VMULL.S32 Q1, D6, D14 108 VMULL.S32 Q12, D0, D8 109 VMULL.S32 Q1 [all...] |
H A D | ixheaacd_fft32x32_ld.s | 152 @VHADD.S32 q8, q0, q4 @b_data0_r=vhaddq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@ 156 @VHSUB.S32 q9, q0, q4 @b_data4_r=vhsubq_s32(a_data0_r_i.val[0],a_data4_r_i.val[0])@ 163 @VHADD.S32 q0, q1, q5 @b_data0_i=vhaddq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@ 167 @VHSUB.S32 q4, q1, q5 @b_data4_i=vhsubq_s32(a_data0_r_i.val[1],a_data4_r_i.val[1])@ 181 @VHADD.S32 q1, q2, q6 @b_data2_r=vhaddq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@ 185 @VHSUB.S32 q5, q2, q6 @b_data6_r=vhsubq_s32(a_data2_r_i.val[0],a_data6_r_i.val[0])@ 189 @VHADD.S32 q2, q3, q7 @b_data2_i=vhaddq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@ 193 @VHSUB.S32 q6, q3, q7 @b_data6_i=vhsubq_s32(a_data2_r_i.val[1],a_data6_r_i.val[1])@ 197 VADD.S32 q3, q9, q6 @c_data4_r=vaddq_s32(b_data4_r,b_data6_i)@ 200 VSUB.S32 q [all...] |
H A D | ixheaacd_calcmaxspectralline.s | 31 VMOV.S32 D6, #0x00000000 32 VMOV.S32 D7, #0x00000000 38 VABS.S32 Q0, Q0 41 VABS.S32 Q1, Q1
|
H A D | ixheaacd_esbr_cos_sin_mod_loop1.s | 49 VMULL.S32 q2, d0, d2 @qsub 2nd 50 VMULL.S32 q3, d0, d3 @add 2nd 51 VMULL.S32 q4, d1, d2 @add 1st 52 VMULL.S32 q5, d1, d3 @qsub 1st 75 VMULL.S32 q2, d0, d2 @add 2nd 76 VMULL.S32 q3, d0, d3 @sub 2nd 77 VMULL.S32 q4, d1, d2 @sub 1st 78 VMULL.S32 q5, d1, d3 @add 1st 101 VMULL.S32 q2, d0, d2 @qsub 2nd 102 VMULL.S32 q [all...] |
H A D | ixheaacd_esbr_cos_sin_mod_loop2.s | 70 VMULL.S32 q2, d0, d2 @qsub 2nd 71 VMULL.S32 q3, d0, d3 @add 2nd 72 VMULL.S32 q4, d1, d2 @add 1st 73 VMULL.S32 q5, d1, d3 @qsub 1st 87 VQNEG.S32 D12, D12 101 VMULL.S32 q2, d0, d2 @qsub 2nd 102 VMULL.S32 q3, d0, d3 @add 2nd 103 VMULL.S32 q4, d1, d2 @add 1st 104 VMULL.S32 q5, d1, d3 @qsub 1st 116 VQNEG.S32 D1 [all...] |
H A D | ixheaacd_dct3_32.s | 46 VSHR.S32 D0, D0, #7 61 VSHR.S32 Q0, Q0, #7 63 VSHR.S32 Q1, Q1, #7 68 VSHR.S32 Q3, Q3, #7 79 VSHR.S32 Q4, Q4, #7 90 VSHR.S32 Q0, Q0, #7 95 VSHR.S32 Q1, Q1, #7 101 VSHR.S32 Q14, Q14, #16 117 VSHR.S32 Q3, Q3, #7 123 VSHR.S32 Q [all...] |
H A D | ixheaacd_mps_synt_out_calc.s | 30 VMULL.S32 Q4, D0, D4 31 VMULL.S32 Q5, D1, D6 32 VMULL.S32 Q6, D2, D5 33 VMULL.S32 Q7, D3, D7
|
H A D | ixheaacd_tns_ar_filter_fixed.s | 142 VMLAL.S32 Q1, D10, D12 144 VMLAL.S32 Q1, D11, D13 180 VMLAL.S32 Q1, D10, D12 181 VMLAL.S32 Q1, D11, D13 182 VMLAL.S32 Q1, D22, D18 183 VMLAL.S32 Q1, D23, D19 222 VMLAL.S32 Q1, D10, D12 223 VMLAL.S32 Q1, D11, D13 224 VMLAL.S32 Q1, D22, D18 225 VMLAL.S32 Q [all...] |
/external/tensorflow/tensorflow/compiler/xla/service/gpu/ |
H A D | instruction_fusion_test.cc | 34 ShapeUtil::MakeShape(S32, {}), HloOpcode::kExp, const0)); 37 ShapeUtil::MakeShape(S32, {1}), exp1, {0})); 54 ShapeUtil::MakeShape(S32, {}), HloOpcode::kNegate, const0)); 57 ShapeUtil::MakeShape(S32, {1}), negate1, {0})); 74 ShapeUtil::MakeShape(S32, {}), HloOpcode::kExp, const0)); 76 HloInstruction::CreateReshape(ShapeUtil::MakeShape(S32, {}), exp1)); 93 ShapeUtil::MakeShape(S32, {}), HloOpcode::kExp, const0)); 95 HloInstruction::CreateTranspose(ShapeUtil::MakeShape(S32, {}), exp1, {})); 109 0, ShapeUtil::MakeShape(S32, {1, 1}), "0")); 111 ShapeUtil::MakeShape(S32, { [all...] |
/external/tensorflow/tensorflow/compiler/xla/ |
H A D | shape_util_test.cc | 228 {ShapeUtil::MakeShape(PRED, {4, 5}), ShapeUtil::MakeShape(S32, {3, 2})}); 301 ShapeUtil::MakeTupleShape({ShapeUtil::MakeShape(S32, {})}))); 305 {ShapeUtil::MakeShape(S32, {}), ShapeUtil::MakeShape(S32, {})}))); 307 {ShapeUtil::MakeShape(S32, {}), ShapeUtil::MakeTupleShape({})}))); 309 {ShapeUtil::MakeTupleShape({}), ShapeUtil::MakeShape(S32, {})}))); 315 EXPECT_EQ(1, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {}))); 316 EXPECT_EQ(0, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {0}))); 317 EXPECT_EQ(1, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, {1}))); 318 EXPECT_EQ(1, ShapeUtil::ElementsIn(ShapeUtil::MakeShape(S32, { [all...] |
/external/compiler-rt/test/asan/TestCases/Linux/ |
H A D | scariness_score_test.cc | 45 struct S32 { struct 105 S32 gm[100]; 141 case 5: HeapBuferOverflow<S32>(4, Write); break; 145 case 9: HeapUseAfterFree<S32>(0, Write); break; 150 case 14: StackUseAfterReturn<S32>(0, Write); break;
|